home *** CD-ROM | disk | FTP | other *** search
/ SGI Developer Toolbox 6.1 / SGI Developer Toolbox 6.1 - Disc 4.iso / documents / RFC / rfc1008.txt < prev    next >
Text File  |  1994-08-01  |  200KB  |  4,308 lines

  1.  
  2. Network Working Group                                        Wayne McCoy
  3. Request for Comments: 1008                                     June 1987
  4.  
  5.  
  6.  
  7.  
  8.                              IMPLEMENTATION GUIDE 
  9.  
  10.                                     FOR THE
  11.  
  12.                             ISO TRANSPORT PROTOCOL
  13.  
  14.  
  15. Status of this Memo
  16.  
  17.    This RFC is being distributed to members of the Internet community
  18.    in order to solicit comments on the Implementors Guide. While this
  19.    document may not be directly relevant to the research problems
  20.    of the Internet, it may be of some interest to a number of researchers
  21.    and implementors. Distribution of this memo is unlimited.
  22.  
  23.  
  24.             IMPLEMENTATION GUIDE FOR THE ISO TRANSPORT PROTOCOL
  25.  
  26. 1   Interpretation of formal description.
  27.  
  28.    It is assumed that the reader is familiar with both the formal
  29.    description technique, Estelle [ISO85a], and the transport protocol
  30.    as described in IS 8073 [ISO84a] and in N3756 [ISO85b].
  31.  
  32. 1.1   General interpretation guide.
  33.  
  34.    The development of the formal description of the ISO Transport
  35.    Protocol was guided by the three following assumptions.
  36.  
  37.                       1. A generality principle
  38.  
  39.    The formal description is intended to express all of the behavior
  40.    that any implementation is to demonstrate, while not being bound
  41.    to the way that any particular implementation would realize that
  42.    behavior within its operating context.
  43.  
  44.                       2. Preservation of the deliberate
  45.                          nondeterminism of IS 8073
  46.  
  47.    The text description in the IS 8073 contains deliberate expressions
  48.    of nondeterminism and indeterminism in the behavior of the
  49.    transport protocol for the sake of flexibility in application.
  50.    (Nondeterminism in this context means that the order of execution
  51.    for a set of actions that can be taken is not specified.
  52.    Indeterminism means that the execution of a given action cannot be
  53.    predicted on the basis of system state or the executions of other
  54.    actions.)
  55.  
  56.  
  57.  
  58. McCoy                                                           [Page 1]
  59.  
  60. RFC 1008                                                       June 1987
  61.  
  62.  
  63.                       3. Discipline in the usage of Estelle
  64.  
  65.    A given feature of Estelle was to be used only if the nature of
  66.    the mechanism to be described strongly indicates its usage,
  67.    or to adhere to the generality principle, or to retain the
  68.    nondeterminism of IS 8073.
  69.  
  70.    Implementation efficiency was not a particular goal nor was there
  71.    an attempt to directly correlate Estelle mechanisms and features
  72.    to implementation mechanisms and features.  Thus, the description
  73.    does not represent optimal behavior for the implemented protocol.
  74.  
  75.    These assumptions imply that the formal description contains higher
  76.    levels of abstraction than would be expected in a description for
  77.    a particular operating environment.  Such abstraction is essential,
  78.    because of the diversity of networks and network elements by which
  79.    implementation and design decisions are influenced.  Even when
  80.    operating environments are essentially identical, design choice and
  81.    originality in solving a technical problem must be allowed.
  82.    The same behavior may be expressed in many different ways.  The
  83.    goal in producing the transport formal description was to attempt
  84.    to capture this equivalence.  Some mechanisms of transport are not
  85.    fully described or appear to be overly complicated because of the
  86.    adherence to the generality principle.  Resolution of these
  87.    situations may require significant effort on the part of the
  88.    implementor.
  89.  
  90.    Since the description does not represent optimal behavior for the
  91.    implemented protocol, implementors should take the three assumptions
  92.    above into account when using the description to implement the
  93.    protocol.  It may be advisable to adapt the standard description in
  94.    such a way that:
  95.  
  96.  
  97.      a.   abstractions (such as modules, channels, spontaneous
  98.           transitions and binding comments) are interpreted and realized
  99.           as mechanisms appropriate to the operating environment and
  100.           service requirements;
  101.  
  102.      b.   modules, transitions, functions and procedures containing
  103.           material irrelevant to the classes or options to be supported
  104.           are reduced or eliminated as needed; and
  105.  
  106.      c.   desired real-time behavior is accounted for.
  107.  
  108.    The use in the formal description of an Estelle feature (for
  109.    instance, "process"), does not imply that an implementation must
  110.    necessarily realize the feature by a synonymous feature of the
  111.    operating context.  Thus, a module declared to be a "process" in an
  112.    Estelle description need not represent a real process as seen by a
  113.    host operating system; "process" in Estelle refers to the
  114.  
  115.  
  116.  
  117. McCoy                                                           [Page 2]
  118.  
  119. RFC 1008                                                       June 1987
  120.  
  121.  
  122.    synchronization properties of a set of procedures (transitions).
  123.  
  124.    Realizations of Estelle features and mechanisms are dependent in an
  125.    essential way upon the performance and service an implementation is
  126.    to provide.  Implementations for operational usage have much more
  127.    stringent requirements for optimal behavior and robustness than do
  128.    implementations used for simulated operation (e.g., correctness or
  129.    conformance testing).  It is thus important that an operational
  130.    implementation realize the abstract features and mechanisms of a
  131.    formal description in an efficient and effective manner.
  132.  
  133.    For operational usage, two useful criteria for interpretation of
  134.    formal mechanisms are:
  135.  
  136.         [1] minimization of delays caused by the mechanism
  137.             itself; e.g.,
  138.  
  139.                --transit delay for a medium that realizes a
  140.                  channel
  141.  
  142.                --access delay or latency for channel medium
  143.  
  144.                --scheduling delay for timed transitions
  145.                  (spontaneous transitions with delay clause)
  146.  
  147.                --execution scheduling for modules using
  148.                  exported variables (delay in accessing
  149.                  variable)
  150.  
  151.         [2] minimization of the "handling" required by each
  152.             invocation of the mechanism; e.g.,
  153.  
  154.                --module execution scheduling and context
  155.                  switching
  156.  
  157.                --synchronization or protocols for realized
  158.                  channel
  159.  
  160.                --predicate evaluation for spontaneous
  161.                  transitions
  162.  
  163.    Spontaneous transitions represent nondeterminism and indeterminism,
  164.    so that uniform realization of them in an implementation must be
  165.    questioned as an implementation strategy.  The time at which the
  166.    action described by a spontaneous transition will actually take
  167.    place cannot be specified because of one or more of the following
  168.    situations:
  169.  
  170.  
  171.      a.   it is not known when, relative to any specific event defining
  172.           the protocol (e.g., input network, input from user, timer
  173.  
  174.  
  175.  
  176. McCoy                                                           [Page 3]
  177.  
  178. RFC 1008                                                       June 1987
  179.  
  180.  
  181.           expirations), the conditions enabling the transition will
  182.           actually occur;
  183.  
  184.      b.   even if the enabling conditions are ultimately deterministic,
  185.           it is not practical to describe all the possible ways this
  186.           could occur, given the different ways in which implementations
  187.           will examine these conditions; and
  188.  
  189.  
  190.      c.   a particular implementation may not be concerned with the
  191.           enabling conditions or will account for them in some other
  192.           way; i.e., it is irrelevant when the action takes place, if
  193.           ever.
  194.  
  195.    As an example of a), consider the situation when splitting over the
  196.    network connection, in Class 4, in which all of the network
  197.    connections to which the transport connection has been assigned have
  198.    all disconnected, with the transport connection still in the OPEN
  199.    state.  There is no way to predict when this will happen, nor is
  200.    there any specific event signalling its occurrence.  When it does
  201.    occur, the transport protocol machine may want to attempt to obtain
  202.    a new network connection.
  203.  
  204.    As an example of b), consider that timers may be expressed
  205.    succinctly in Estelle by transitions similar to the following:
  206.  
  207.  
  208.                  from A to B
  209.                  provided predicate delay( timer_interval )
  210.  
  211.                  begin
  212.                  (* action driven by timeout *)
  213.                  end;
  214.  
  215.  
  216.    But there are operations for which the timer period may need to
  217.    be very accurate (close to real time) and others in which some
  218.    delay in executing the action can be tolerated.  The implementor
  219.    must determine the optimal behavior desired for each instance
  220.    and use an appropriate mechanism to realize it, rather than
  221.    using a uniform approach to implementing all spontaneous
  222.    transitions.
  223.  
  224.    As an example of the situation in c), consider the closing of an
  225.    unused network connection.  If the network is such that the cost
  226.    of letting the network connection remain open is small compared
  227.    cost of opening it, then an implementation might not want to
  228.    consider closing the network connection until, say, the weekend.
  229.    Another implementation might decide to close the network
  230.    connection within 30 msec after discovering that the connection
  231.    is not busy.  For still another implementation, this could be
  232.  
  233.  
  234.  
  235. McCoy                                                           [Page 4]
  236.  
  237. RFC 1008                                                       June 1987
  238.  
  239.  
  240.    meaningless because it operates over a connectionless network
  241.    service.
  242.  
  243.    If a description has only a very few spontaneous transitions, then
  244.    it may be relatively easy to implement them literally (i.e., to
  245.    schedule and execute them as Estelle abstractly does) and not
  246.    incur the overhead from examining all of the variables that occur
  247.    in the enabling conditions.  However, the number and complexity of
  248.    the enabling conditions for spontaneous transitions in the transport
  249.    description strongly suggests that an implementation which realizes
  250.    spontaneous transitions literally will suffer badly from such
  251.    overhead.
  252.  
  253. 1.2   Guide to the formal description.
  254.  
  255.    So that implementors gain insight into interpretation of the
  256.    mechanisms and features of the formal description of transport, the
  257.    following paragraphs discuss the meanings of such mechanisms and
  258.    features as intended by the editors of the formal description.
  259.  
  260. 1.2.1   Transport Protocol Entity.
  261.  
  262. 1.2.1.1   Structure.
  263.  
  264.    The diagram below shows the general structure of the Transport
  265.    Protocol Entity (TPE) module, as given in the formal description.
  266.    >From an abstract operational viewpoint, the transport protocol
  267.    Machines (TPMs) and the Slaves operate as child processes of the the
  268.    TPE process.  Each TPM represents the endpoint actions of the
  269.    protocol on a single transport connection.  The Slave represents
  270.    control of data output to the network.  The internal operations of
  271.    the TPMs and the Slave are discussed below in separate sections.
  272.  
  273.    This structure permits describing multiple connections, multiplexing
  274.    and splitting on network connections, dynamic existence of endpoints
  275.    and class negotiation.  In the diagram, interaction points are
  276.    denoted by the symbol "O", while (Estelle) channels joining these
  277.    interaction points are denoted by
  278.  
  279.  
  280.  
  281.  
  282.  
  283.  
  284.  
  285.  
  286.  
  287.  
  288.  
  289.  
  290.  
  291.  
  292.  
  293.  
  294. McCoy                                                           [Page 5]
  295.  
  296. RFC 1008                                                       June 1987
  297.  
  298.  
  299.              *
  300.              *
  301.              *
  302.  
  303.    The symbol "X" represents a logical association through variables,
  304.    and the denotations
  305.  
  306.            <<<<<<<
  307.  
  308.            >>>>>>>
  309.  
  310.               V
  311.               V
  312.               V
  313.  
  314.    indicate the passage of data, in the direction of the symbol
  315.    vertices, by way of these associations.  The acronyms TSAP and
  316.    NSAP denote Transport Service Access Point and Network Service
  317.    Access Point, respectively.  The structure of the TSAPs and
  318.    NSAPs shown is discussed further on, in Parts 1.2.2.1 and
  319.    1.2.2.2.
  320.  
  321.  
  322.              |<-----------------TSAP---------------->|
  323.    ----------O---------O---------O---------O---------O---------
  324.    |  TPE    *                   *         *                  |
  325.    |         *                   *         *                  |
  326.    |     ____O____           ____O____ ____O____              |
  327.    |     |       |           |       | |       |              |
  328.    |     |  TPM  |           |  TPM  | |  TPM  |              |
  329.    |     |       |           |       | |       |              |
  330.    |     |___X___|           |__X_X__| |___X___|              |
  331.    |         V                  V V        V                  |
  332.    |         V   multiplex      V V        V                  |
  333.    |         >>>>>>>> <<<<<<<<<<< V        V                  |
  334.    |                V V     split V        V                  |
  335.    |                V V           V        V                  |
  336.    |              ---X----     ---X---- ---X----              |
  337.    |              |Slave |     |Slave | |Slave |              |
  338.    |              |__O___|     |__O___| |__O___|              |
  339.    |                 V            V        V                  |
  340.    |                 V            V        V                  |
  341.    |-----------------O------------O--------O------------------|
  342.                    NSAP           |<------>|
  343.  
  344.  
  345.                                NSAP
  346.  
  347.  
  348.  
  349.  
  350.  
  351.  
  352.  
  353. McCoy                                                           [Page 6]
  354.  
  355. RFC 1008                                                       June 1987
  356.  
  357.  
  358.    The structuring principles of Estelle provide a formal means of
  359.    expressing and enforcing certain synchronization properties between
  360.    communicating processes.  It must be stressed that the scheduling
  361.    implied by Estelle descriptions need not and in some cases should
  362.    not be implemented.  The intent of the structure in the transport
  363.    formal description is to state formally the synchronization of
  364.    access tovariables shared by the transport entity and the transport
  365.    connection endpoints and to permit expression of dynamic objects
  366.    within the entity.  In nearly all aspects of operation except these,
  367.    it may be more efficient in some implementation environments to
  368.    permit the TPE and the TPMs to run in parallel (the Estelle
  369.    scheduling specifically excludes the parallel operation of the TPE
  370.    and the TPMs). This is particularly true of internal management
  371.    ("housekeeping") actions and those actions not directly related to
  372.    communication between the TPE and the TPMs or instantiation of TPMs.
  373.    Typical actions of this latter sort are: receipt of NSDUs from the
  374.    network, integrity checking and decoding of TPDUs, and network
  375.    connection management. Such actions could have been collected into
  376.    other modules for scheduling closer to that of an implementation,
  377.    but surely at the risk of further complicating the description.
  378.    Consequently, the formal description structure should be understood
  379.    as expressing relationships among actions and objects and not
  380.    explicit implementation behavior.
  381.  
  382. 1.2.1.2   Transport protocol entity operation.
  383.  
  384.    The details of the operation of the TPE from a conceptual point of
  385.    view are given in the SYS section of the formal description.
  386.    However, there are several further comments that can be made
  387.    regarding the design of the TPE.  The Estelle body for the TPE
  388.    module has no state variable.  This means that any transition of
  389.    the TPE may be enabled and executed at any time.  Choice of
  390.    transition is determined primarily by priority.  This suggests
  391.    that the semantics of the TPE transitions is that of interrupt
  392.    traps.
  393.  
  394.    The TPE handles only the T-CONNECT-request from the user and the TPM
  395.    handle all other user input.  All network events are handled by the
  396.    TPE, in addition to resource management to the extent defined in the
  397.    description.  The TPE also manages all aspects of connection
  398.    references, including reference freezing.  The TPE does not
  399.    explicitly manage the CPU resource for the TPMs, since this is
  400.    implied by the Estelle scheduling across the module hierarchy.
  401.    Instantiation of TPMs is also the responsibility of the TPE, as is
  402.    TPM release when the transport connection is to be closed.  Once a
  403.    TPM is created, the TPE does not in general interfere with TPM's
  404.    activities, with the following exceptions:  the TPE may reduce credit
  405.    to a Class 4 TPM without notice;  the TPE may dissociate a Class 4
  406.    TPM from a network connection when splitting is being used.
  407.    Communication between the TPE and the TPMs is through a set of
  408.    exported variables owned by the TPMs, and through a channel which
  409.  
  410.  
  411.  
  412. McCoy                                                           [Page 7]
  413.  
  414. RFC 1008                                                       June 1987
  415.  
  416.  
  417.    passes TPDUs to be transmitted to the remote peer.  This channel is
  418.    not directly connected to any network connection, so each
  419.    interaction on it carries a reference number indicating which network
  420.    connection is to be used. Since the reference is only a reference,
  421.    this permits usage of this mechanism when the network service is
  422.    connectionless, as well.  The mechanism provides flexibility for
  423.    both splitting and multiplexing on network connections.
  424.  
  425.    One major function that the TPE performs for all its TPMs is that of
  426.    initial processing of received TPDUs.  First, a set of integrity
  427.    checks is made to determine if each TPDU in an NSDU is decodable:
  428.  
  429.  
  430.      a.   PDU length indicators and their sums are checked against the
  431.           NSDU length for consistency;
  432.  
  433.      b.   TPDU types versus minimum header lengths for the types are
  434.           checked, so that if the TPDU can be decoded, then proper
  435.           association to TPMs can be made without any problem;
  436.  
  437.      c.   TPDUs are searched for checksums and the local checksum is
  438.           computed for any checksum found; and
  439.  
  440.  
  441.      d.   parameter codes in variable part of headers are checked where
  442.           applicable.
  443.  
  444.    These integrity checks guarantee that an NSDU passing the check can
  445.    be separated as necessary into TPDUs, these TPDUs can be associated
  446.    to the transport connections or to the Slave as appropriate and they
  447.    can be further decoded without error.
  448.  
  449.    The TPE next decodes the fixed part of the TPDU headers to determine
  450.    the disposition of the TPDU.  The Slave gets TPDUs that cannot be
  451.    assigned to a TPM (spurious TPDU).  New TPMs are created in response
  452.    to CR TPDUs that correspond to a TSAP for this TPE.
  453.  
  454.    All management of NSAPs is done by the TPE.  This consists of keeping
  455.    track of all network connections, their service quality
  456.    characteristics and their availability, informing the TPMs associated
  457.    with these network connections.
  458.  
  459.    The TPE has no timer module as such.  Timing is handled by using the
  460.    DELAY feature of Estelle, since this feature captures the essence of
  461.    timing without specifying how the actual timing is to be achieved
  462.    within the operating environment.  See Part 1.2.5 for more details.
  463.  
  464. 1.2.2   Service Access Points.
  465.  
  466.    The service access points (SAP) of the transport entity are modeled
  467.    using the Estelle channel/interaction point formalism.  (Note: The
  468.  
  469.  
  470.  
  471. McCoy                                                           [Page 8]
  472.  
  473. RFC 1008                                                       June 1987
  474.  
  475.  
  476.    term "channel" in Estelle is a keyword that denotes a set of
  477.    interactions which may be exchanged at interaction points [LIN85].
  478.    However, it is useful conceptually to think of "channel" as denoting
  479.    a communication path that carries the interactions between modules.)
  480.    The abstract service primitives for a SAP are interactions on
  481.    channels entering and leaving the TPE.  The transport user is
  482.    considered to be at the end of the channel connected to the transport
  483.    SAP (TSAP) and the network service provider is considered to be at
  484.    the end of the channel connected to the network SAP (NSAP).  An
  485.    interaction put into a channel by some module can be considered to
  486.    move instantaneously over the channel onto a queue at the other end.
  487.    The sender of such an interaction no longer has access to the
  488.    interaction once it has been put into the channel.  The operation of
  489.    the system modeled by the formal description has been designed with
  490.    this semantics in mind, rather than the equivalent but much more
  491.    abstract Estelle semantics.  (In the Estelle semantics, each
  492.    interaction point is considered to have associated with it an
  493.    unbounded queue.  The "attach" and "connect" primitives bind two
  494.    interaction points, such that an action, implied by the keyword
  495.    "out", at one interaction point causes a specified interaction to be
  496.    placed onto the queue associated with the other interaction point.)
  497.    The sections that follow discuss the TSAP and the NSAP and the way
  498.    that these SAPs are described in the formal description.
  499.  
  500. 1.2.2.1   Transport Service Access Point.
  501.  
  502.    The international transport standard allows for more than one TSAP to
  503.    be associated with a transport entity, and multiple users may be
  504.    associated with a given TSAP.  A situation in which this is useful is
  505.    when it is desirable to have a certain quality of service correlated
  506.    with a given TSAP.  For example, one TSAP could be reserved for
  507.    applications requiring a high throughput, such as file transfer.  The
  508.    operation of transport connections associated with this TSAP could
  509.    then be designed to favor throughput.  Another TSAP might serve users
  510.    requiring short response time, such as terminals.  Still another TSAP
  511.    could be reserved for encryption reasons.
  512.  
  513.    In order to provide a way of referencing users associated with TSAPs,
  514.    the user access to transport in the formal description is through an
  515.    array of Estelle interaction points.  This array is indexed by a TSAP
  516.    address (T_address) and a Transport Connection Endpoint Identifier
  517.    (TCEP_id).  Note that this dimensional object (TSAP) is considered
  518.    simply to be a uniform set of abstract interfaces.  The indices must
  519.    be of (Pascal) ordinal type in Estelle.  However, the actual address
  520.    structure of TSAPs may not conform easily to such typing in an
  521.    implementation.  Consequently, the indices as they appear in the
  522.    formal description should be viewed as an organizational mechanism
  523.    rather than as an explicit way of associating objects in an
  524.    operational setting.  For example, actual TSAP addresses might be
  525.    kept in some kind of table, with the table index being used to
  526.    reference objects associated with the TSAP.
  527.  
  528.  
  529.  
  530. McCoy                                                           [Page 9]
  531.  
  532. RFC 1008                                                       June 1987
  533.  
  534.  
  535.    One particular issue concerned with realizing TSAPs is that of making
  536.    known to the users the means of referencing the transport interface,
  537.    i.e., somehow providing the T_addresses and TCEP_ids to the users.
  538.    This issue is not considered in any detail by either IS 7498 [ISO84b]
  539.    or IS 8073.  Abstractly, the required reference is the
  540.    T_address/TCEP_id pair.  However, this gives no insight as to how the
  541.    mechanism could work.  Some approaches to this problem are discussed
  542.    in Part 5.
  543.  
  544.    Another issue is that of flow control on the TSAP channels.  Flow
  545.    control is not part of the semantics for the Estelle channel, so the
  546.    problem must be dealt with in another way.  The formal description
  547.    gives an abstract definition of interface flow control using Pascal
  548.    and Estelle mechanisms.  This abstraction resembles many actual
  549.    schemes for flow control, but the realization of flow control will
  550.    still be dependent on the way the interface is implemented.  Part 3.2
  551.    discusses this in more detail.
  552.  
  553. 1.2.2.2   Network Service Access Point.
  554.  
  555.    An NSAP may also have more than one network connection associated
  556.    with it.  For example, the virtual circuits of X.25 correspond with
  557.    this notion.  On the other hand, an NSAP may have no network
  558.    connection associated with it, for example when the service at the
  559.    NSAP is connectionless.  This certainly will be the case when
  560.    transport operates on a LAN or over IP.  Consequently, although the
  561.    syntactical appearance of the NSAP in the formal description is
  562.    similar to that for the TSAP, the semantics are essentially distinct
  563.    [NTI85].
  564.  
  565.    Distinct NSAPs can correspond or not to physically distinct networks.
  566.    Thus, one NSAP could access X.25 service, another might access an
  567.    IEEE 802.3 LAN, while a third might access a satellite link.  On the
  568.    other hand, distinct NSAPs could correspond to different addresses on
  569.    the same network, with no particular rationale other than facile
  570.    management for the distinction.  There are performance and system
  571.    design issues that arise in considering how NSAPs should be managed
  572.    in such situations.  For example, if distinct NSAPs represent
  573.    distinct networks, then a transport entity which must handle all
  574.    resource management for the transport connections and operate these
  575.    connections as well may have trouble keeping pace with data arriving
  576.    concurrently from two LANs and a satellite link.  It might be a
  577.    better design solution to separate the management of the transport
  578.    connection resources from that of the NSAP resources and inputs, or
  579.    even to provide separate transport entities to handle some of the
  580.    different network services, depending on the service quality to be
  581.    maintained.  It may be helpful to think of the (total) transport
  582.    service as not necessarily being provided by a single monolithic
  583.    entity--several distinct entities can reside at the transport layer
  584.    on the same end-system.
  585.  
  586.  
  587.  
  588.  
  589. McCoy                                                          [Page 10]
  590.  
  591. RFC 1008                                                       June 1987
  592.  
  593.  
  594.    The issues of NSAP management come primarily from connection-oriented
  595.    network services.  This is because a connectionless service is either
  596.    available to all transport connections or it is available to none,
  597.    representing infinite degrees of multiplexing and splitting. In the
  598.    connection-oriented case, NSAP management is complicated by
  599.    multiplexing, splitting, service quality considerations and the
  600.    particular character of the network service.  These issues are
  601.    discussed further in Part 3.4.1.  In the formal description, network
  602.    connection management is carried out by means of a record associated
  603.    with each possible connection and an array, associated with each TPM,
  604.    each array member corresponding to a possible network connection.
  605.    Since there is, on some network services, a very large number of
  606.    possible network connections, it is clear that in an implementation
  607.    these data structures may need to be made dynamic rather than static.
  608.    The connection record, indexed by NSAP and NCEP_id, consists of a
  609.    Slave module reference, virtual data connections to the TPMs to be
  610.    associated with the network connection, a data connection (out) to
  611.    the NSAP, and a data connection to the Slave.  There is also a
  612.    "state" variable for keeping track of the availability of the
  613.    connection, variables for managing the Slave and an internal
  614.    reference number to identify the connection to TPMs.  A member of the
  615.    network connection array associated with a TPM provides the TPM with
  616.    status information on the network connection and input data (network)
  617.    events and TPDUs).  A considerable amount of management of the
  618.    network connections is provided by the formal description, including
  619.    splitting, multiplexing, service quality (when defined), interface
  620.    flow control, and concatenation of TPDUs. This management is carried
  621.    out solely by the transport entity, leaving the TPMs free to handle
  622.    only the explicit transport connection issues.  This management
  623.    scheme is flexible enough that it can be simplified and adapted to
  624.    handle the NSAP for a connectionless service.
  625.  
  626.    The principal issue for management of connectionless NSAPs is that of
  627.    buffering, particularly if the data transmission rates are high, or
  628.    there is a large number of transport connections being served.  It
  629.    may also be desirable for the transport entity to monitor the service
  630.    it is getting from the network.  This would entail, for example,
  631.    periodically computing the mean transmission delays for adjusting
  632.    timers or to exert backpressure on the transport connections if
  633.    network access delay rises, indicating loading.  (In the formal
  634.    description, the Slave processor provides a simple form of output
  635.    buffer management: when its queue exceeds a threshold, it shuts off
  636.    data from the TPMs associated with it.  Through primitive functions,
  637.    the threshold is loosely correlated with network behavior.  However,
  638.    this mechanism is not intended to be a solution to this difficult
  639.    performance problem.)
  640.  
  641.  
  642.  
  643.  
  644.  
  645.  
  646.  
  647.  
  648. McCoy                                                          [Page 11]
  649.  
  650. RFC 1008                                                       June 1987
  651.  
  652.  
  653. 1.2.3   Transport Protocol Machine.
  654.  
  655.    Transport Protocol Machines (TPM) in the formal description are in
  656.    six classes: General, Class 0, Class 1, Class 2, Class 3 and Class 4.
  657.    Only the General, Class 2 and Class 4 TPMs are discussed here.  The
  658.    reason for this diversity is to facilitate describing class
  659.    negotiations and to show clearly the actions of each class in the
  660.    data transfer phase.  The General TPM is instantiated when a
  661.    connection request is received from a transport user or when a CR
  662.    TPDU is received from a remote peer entity.  This TPM is replaced by
  663.    a class-specific TPM when the connect response is received from the
  664.    responding user or when the CC TPDU is received from the responding
  665.    peer entity.
  666.  
  667.    The General, Class 2 and Class 4 TPMs are discussed below in more
  668.    detail.  In an implementation, it probably will be prudent to merge
  669.    the Class 2 and Class 4 operations with that of the General TPM, with
  670.    new variables selecting the class-specific operation as necessary
  671.    (see also Part 9.4 for information on obtaining Class 2 operation
  672.    from a Class 4 implementation).  This may simplify and improve the
  673.    behavior of the implemented protocol overall.
  674.  
  675. 1.2.3.1   General Transport Protocol Machine.
  676.  
  677.    Connection negotiation and establishment for all classes can be
  678.    handled by the General Transport Protocol Machine.  Some parts of the
  679.    description of this TPM are sufficiently class dependent that they
  680.    can safely be removed if that class is not implemented.  Other parts
  681.    are general and must be retained for proper operation of the TPM. The
  682.    General TPM handles only connection establishment and negotiation, so
  683.    that only CR, CC, DR and DC TPDUs are sent or received (the TPE
  684.    prevents other kinds of TPDUs from reaching the General TPM).
  685.  
  686.    Since the General TPM is not instantiated until a T-CONNECT-request
  687.    or a CR TPDU is received, the TPE creates a special internal
  688.    connection to the module's TSAP interaction point to pass the
  689.    T-CONNECT-request event to the TPM.  This provides automaton
  690.    completeness according to the specfication of the protocol.  When the
  691.    TPM is to be replaced by a class-specific TPM, the sent or received
  692.    CC is copied to the new TPM so that negotiation information is not
  693.    lost.
  694.  
  695.    In the IS 8073 state tables for the various classes, the majority of
  696.    the behavioral information for the automaton is contained in the
  697.    connection establishment phase.  The editors of the formal
  698.    description have retained most of the information contained in the
  699.    state tables of IS 8073 in the description of the General TPM.
  700.  
  701. 1.2.3.2   Class 2 Transport Protocol Machine.
  702.  
  703.    The formal description of the Class 2 TPM closely resembles that of
  704.  
  705.  
  706.  
  707. McCoy                                                          [Page 12]
  708.  
  709. RFC 1008                                                       June 1987
  710.  
  711.  
  712.    Class 4, in many respects.  This is not accidental, in that: the
  713.    conformance statement in IS 8073 links Class 2 with Class 4; and the
  714.    editors of the formal description produced the Class 2 TPM
  715.    description by copying the Class 4 TPM description and removing
  716.    material on timers, checksums, and the like that is not part of the
  717.    Class 2 operation.  The suggestion of obtaining Class 2 operation
  718.    from a Class 4 implementation, described in Part 9.4, is in fact
  719.    based on this adaptation.
  720.  
  721.    One feature of Class 2 that does not appear in Class 4, however, is
  722.    the option to not use end-to-end flow control.  In this mode of
  723.    operation, Class 2 is essentially Class 0 with multiplexing.  In
  724.    fact, the formal description of the Class 0 TPM was derived from
  725.    Class 2 (in IS 8073, these two classes have essentially identical
  726.    state tables).  This implies that Class 0 operation could be obtained
  727.    from Class 2 by not multiplexing, not sending DC TPDUs, electing not
  728.    to use flow control and terminating the network connection when a DR
  729.    TPDU is received (expedited data cannot be used if flow control is
  730.    not used).  When Class 2 is operated in this mode, a somewhat
  731.    different procedure is used to handle data flow internal to the TPM
  732.    than is used when end-to-end flow control is present.
  733.  
  734. 1.2.3.3   Class 4 Transport Protocol Machine.
  735.  
  736.    Dynamic queues model the buffering of TPDUs in both the Class 4 and
  737.    Class 2 TPMs.  This provides a more general model of implementations
  738.    than does the fixed array representation and is easier to describe.
  739.    Also, the fixed array representation has semantics that, carried
  740.    into an implementation, would produce inefficiency.  Consequently,
  741.    linked lists with queue management functions make up the TPDU
  742.    storage description, despite the fact that pointers have a very
  743.    implementation-like flavor.  One of the queue management functions
  744.    permits removing several TPDUs from the head of the send queue, to
  745.    model the acknowledgement of several TPDUs at once, as specified in
  746.    IS 8073.  Each TPDU record in the queue carries the number of
  747.    retransmissions tried, for timer control (not present in the Class 2
  748.    TPDU records).
  749.  
  750.    There are two states of the Class 4 TPM that do not appear in IS
  751.    8073. One of these was put in solely to facilitate obtaining credit
  752.    in case no credit was granted for the CR or CC TPDU.  The other state
  753.    was put in to clarify operations when there is unacknowledged
  754.    expedited data outstanding (Class 2 does not have this state).
  755.  
  756.    The timers used in the Class 4 TPM are discussed below, as is the
  757.    description of end-to-end flow control.
  758.  
  759.    For simplicity in description, the editors of the formal description
  760.    assumed that no queueing of expedited data would occur at the user
  761.    interface of the receiving entity.  The user has the capability to
  762.    block the up-flow of expedited data until it is ready.  This
  763.  
  764.  
  765.  
  766. McCoy                                                          [Page 13]
  767.  
  768. RFC 1008                                                       June 1987
  769.  
  770.  
  771.    assumption has several implications. First, an ED TPDU cannot be
  772.    acknowledged until the user is ready to accept it.  This is because
  773.    the receipt of an EA TPDU would indicate to the sending peer that the
  774.    receiver is ready to receive the next ED TPDU, which would not be
  775.    true.  Second, because of the way normal data flow is blocked by the
  776.    sending of an ED TPDU, normal data flow ceases until the receiving
  777.    user is ready for the ED TPDU.  This suggests that the user
  778.    interface should employ separate and noninterfering mechanisms
  779.    for passing normal and expedited data to the user.  Moreover,
  780.    the mechanism for expedited data passage should be blocked only in
  781.    dire operational conditions.  This means that receipt of expedited
  782.    data by the user should be a procedure (transition) that operates
  783.    at nearly the highest priority in the user process.  The alternative
  784.    to describing the expedited data handling in this way would entail a
  785.    scheme of properly synchronizing the queued ED TPDUs with the DT
  786.    TPDUs received.  This requires some intricate handling of DT and ED
  787.    sequence numbers. While this alternative may be attractive for
  788.    implementations, for clarity in the formal description it provides
  789.    only unnecessary complication.
  790.  
  791.    The description of normal data TSDU processing is based on the
  792.    assumption that the data the T-DATA-request refers to is potentially
  793.    arbitrarily long.  The semantic of the TSDU in this case is analogous
  794.    to that of a file pointer, in the sense that any file pointer is a
  795.    reference to a finite but arbitrarily large set of octet-strings.
  796.    The formation of TPDUs from this string is analogous to reading the
  797.    file in  fixed-length segments--records or blocks, for example.  The
  798.    reassembly of TPDUs into a string is analogous to appending each TPDU
  799.    to the tail of a file; the file is passed when the end-of-TSDU
  800.    (end-of-file) is received.  This scheme permits conceptual buffering
  801.    of the entire TSDU in the receiver and avoids the question of whether
  802.    or not received data can be passed to the user before the EOT is
  803.    received.  (The file pointer may refer to a file owned by the user,
  804.    so that the question then becomes moot.)
  805.  
  806.    The encoding of TPDUs is completely described, using Pascal functions
  807.    and some special data manipulation functions of Estelle (these are
  808.    not normally part of Pascal).  There is one encoding function
  809.    corresponding to each TPDU type, rather than a single parameterized
  810.    function that does all of them.  This was done so that the separate
  811.    structures of the individual types could be readily discerned, since
  812.    the purpose of the functions is descriptive and not necessarily
  813.    computational.
  814.  
  815.    The output of TPDUs from the TPM is guarded by an internal flow
  816.    control flag.  When the TPDU is first sent, this flag is ignored,
  817.    since if the TPDU does not get through, a retransmission may take
  818.    care of it.  However, when a retransmission is tried, the flag is
  819.    heeded and the TPDU is not sent, but the retransmission count is
  820.    incremented.  This guarantees that either the TPDU will eventually
  821.    be sent or the connection will time out (this despite the fact that
  822.  
  823.  
  824.  
  825. McCoy                                                          [Page 14]
  826.  
  827. RFC 1008                                                       June 1987
  828.  
  829.  
  830.    the peer will never have received any TPDU to acknowledge).
  831.    Checksum computations are done in the TPM rather than by the TPE,
  832.    since the TPE must handle all classes.  Also, if the TPMs can be
  833.    made to truly run in parallel, the performance may be greatly
  834.    enhanced.
  835.  
  836.    The decoding of received TPDUs is partially described in the Class 4
  837.    TPM description.  Only the CR and CC TPDUs present any problems in
  838.    decoding, and these are largely due to the nondeterministic order of
  839.    parameters in the variable part of the TPDU headers and the
  840.    locality-and class-dependent content of this variable part.  Since
  841.    contents of this variable part (except the TSAP-IDs) do not affect
  842.    the association of the TPDU with a transport connection, the
  843.    decoding of the variable part is not described in detail.  Such a
  844.    description would be very lengthy indeed because of all the
  845.    possibilities and would not contribute measurably to understanding
  846.    by the reader.
  847.  
  848. 1.2.4   Network Slave.
  849.  
  850.    The primary functions of the Network Slave are to provide downward
  851.    flow control in the TPE, to concatenate TPDUs into a single NSDU and
  852.    to respond to the receipt of spurious TPDUs.  The Slave has an
  853.    internal queue on which it keeps TPDUs until the network is ready to
  854.    accept them for transmission.  The TPE is kept informed as to the
  855.    length of queue, and the output of the TPMs is throttled if the
  856.    length exceeds this some threshold.  This threshold can be adjusted
  857.    to meet current operating conditions.  The Slave will concatenate
  858.    the TPDUs in its queue if the option to concatenate is exercised and
  859.    the conditions for concatenating are met.  Concatenation is a TPE
  860.    option, which may be exercised or not at any time.
  861.  
  862. 1.2.5   Timers.
  863.  
  864.    In the formal description timers are all modeled using a spontaneous
  865.    transition with delay, where the delay parameter is the timer period.
  866.    To activate the timer, a timer identifier is placed into a set,
  867.    thereby satisfying a predicate of the form
  868.  
  869.    provided timer_x in active_timers
  870.  
  871.    However, the transition code is not executed until the elapsed time
  872.    ;from the placement of the identifier in the set is at least equal
  873.    to the delay parameter.  The editors of the formal description chose
  874.    to model timers in this fashion because it provided a simply
  875.    expressed description of timer behavior and eliminated having to
  876.    consider how timing is done in a real system or to provide special
  877.    timer modules and communication to them.  It is thus recommended that
  878.    implementors not follow the timer model closely in implementations,
  879.    considering instead the simplest and most efficient means of timing
  880.    permitted by the implementation environment.  Implementors should
  881.  
  882.  
  883.  
  884. McCoy                                                          [Page 15]
  885.  
  886. RFC 1008                                                       June 1987
  887.  
  888.  
  889.    also note that the delay parameter is typed "integer" in the formal
  890.    description. No scale conversion from actual time is expressed in the
  891.    timer transition, so that this scale conversion must be considered
  892.    when timers are realized.
  893.  
  894. 1.2.5.1   Transport Protocol Entity timers.
  895.  
  896.    There is only one timer given in the formal description of the
  897.    TPE--the reference timer.  The reference timer was placed here ;so
  898.    that it can be used by all classes and all connections, as needed.
  899.    There is actually little justification for having a reference timer
  900.    within the TPM--it wastes resources by holding the transport
  901.    endpoint, even though the TPM is incapable of responding to any
  902.    input.  Consequently, the TPE is responsible for all aspects of
  903.    reference management, including the timeouts.
  904.  
  905. 1.2.5.2   Transport Protocol Machine timers.
  906.  
  907.    Class 2 transport does not have any timers that are required by IS
  908.    8073.  However, the standard does recommend that an optional timer be
  909.    used by Class 2 in certain cases to avoid deadlock.  The formal
  910.    description provides this timer, with comments to justify its usage.
  911.    It is recommended that such a timer be provided for Class 2
  912.    operation.  Class 4 transport has several timers for connection
  913.    control, flow control and retransmissions of unacknowledged data.
  914.    Each of these timers is discussed briefly below in terms of how they
  915.    were related to the Class 4 operations in the formal description.
  916.    Further discussion of these timers is given in Part 8.
  917.  
  918. 1.2.5.2.1   Window timer.
  919.  
  920.    The window timer is used for transport connection control as well as
  921.    providing timely updates of flow control credit information.  One of
  922.    these timers is provided in each TPM.   It is reset each time an AK
  923.    TPDU is sent, except during fast retransmission of AKs for flow
  924.    control confirmation, when it is disabled.
  925.  
  926. 1.2.5.2.2   Inactivity timer.
  927.  
  928.    The primary usage of the inactivity timer is to detect when the
  929.    remote peer has ceased to send anything (including AK TPDUs).  This
  930.    timer is mandatory when operating over a connectionless network
  931.    service, since there is no other way to determine whether or not the
  932.    remote peer is still functioning.  On a connection-oriented network
  933.    service it has an additional usage since to some extent the continued
  934.    existence of the network connection indicates that the peer host has
  935.    not crashed.
  936.  
  937.    Because of splitting, it is useful to provide an inactivity timer on
  938.    each network connection to which a TPM is assigned.  In this manner,
  939.    if a network connection is unused for some time, it can be released,
  940.  
  941.  
  942.  
  943. McCoy                                                          [Page 16]
  944.  
  945. RFC 1008                                                       June 1987
  946.  
  947.  
  948.    even though a TPM assigned to it continues to operate over other
  949.    network connections. The formal description provides this capability
  950.    in each TPM.
  951.  
  952. 1.2.5.2.3   Network connection timer.
  953.  
  954.    This timer is an optional timer used to ensure that every network
  955.    connection to which a TPM is assigned gets used periodically.  This
  956.    prevents the expiration of the peer entity's inactivity timer for a
  957.    network connection.  There is one timer for each network connection
  958.    to which the TPM is assigned.  If there is a DT or ED TPDU waiting to
  959.    be sent, then it is chosen to be sent on the network connection.  If
  960.    no such TPDU is waiting, then an AK TPDU is sent.  Thus, the NC timer
  961.    serves somewhat the same purpose as the window timer, but is broader
  962.    in scope.
  963.  
  964. 1.2.5.2.4   Give-up timer.
  965.  
  966.    There is one give-up timer for a TPM which is set whenever the
  967.    retransmission limit for any CR, CC, DT, ED or DR TPDU is reached.
  968.    Upon expiration of this timer, the transport connection is closed.
  969.  
  970. 1.2.5.2.5   Retransmission timers.
  971.  
  972.    Retransmission timers are provided for CR, CC, DT, ED and DR TPDUs.
  973.    The formal description provides distinct timers for each of these
  974.    TPDU types, for each TPM.  However, this is for clarity in the
  975.    description, and Part 8.2.5 presents arguments for other strategies
  976.    to be used in implementations.  Also, DT TPDUs with distinct sequence
  977.    numbers are each provided with timers, as well.  There is a primitive
  978.    function which determines the range within the send window for which
  979.    timers will be set.  This has been done to express flexibility in the
  980.    retransmission scheme.
  981.  
  982.    The flow control confirmation scheme specified in IS 8073 also
  983.    provides for a "fast" retransmission timer to ensure the reception of
  984.    an AK TPDU carrying window resynchronization after credit reduction
  985.    or when opening a window that was previously closed.  The formal
  986.    description permits one such timer for a TPM.  It is disabled after
  987.    the peer entity has confirmed the window information.
  988.  
  989. 1.2.5.2.6   Error transport protocol data unit timer.
  990.  
  991.    In IS 8073, there is a provision for an optional timeout to limit the
  992.    wait for a response by the peer entity to an ER TPDU.  When this
  993.    timer expires, the transport connection is terminated.  Each Class 2
  994.    or Class 4 TPM is provided with one of these timers in N3756.
  995.  
  996. 1.2.6   End-to-end Flow Control.
  997.  
  998.    Flow control in the formal description has been written in such a way
  999.  
  1000.  
  1001.  
  1002. McCoy                                                          [Page 17]
  1003.  
  1004. RFC 1008                                                       June 1987
  1005.  
  1006.  
  1007.    as to permit flexibility in credit control schemes and
  1008.    acknowledgement strategies.
  1009.  
  1010. 1.2.6.1   Credit control.
  1011.  
  1012.    The credit mechanism in the formal description provides for actual
  1013.    management of credit by the TPE.  This is done through variables
  1014.    exported by the TPMs which indicate to the TPE when credit is needed
  1015.    and for the TPE to indicate when credit has been granted.  In this
  1016.    manner, the TPE has control over the credit a TPM has.  The mechanism
  1017.    allows for reduction in credit (Class 4 only) and the possibility of
  1018.    precipitous window closure.  The mechanism does not preclude the use
  1019.    of credit granted by the user or other sources, since credit need is
  1020.    expressed as current credit being less than some threshold.  Setting
  1021.    the threshold to zero permits these other schemes.  An AK TPDU is
  1022.    sent each time credit is updated.
  1023.  
  1024.    The end-to-end flow control is also coupled to the interface flow
  1025.    control to the user.  If the user has blocked the interface up-flow,
  1026.    then the TPM is prohibited from requesting more credit when the
  1027.    current window is used up.
  1028.  
  1029. 1.2.6.2   Acknowledgement.
  1030.  
  1031.    The mechanism for acknowledging normal data provides flexibility
  1032.    sufficient to send an AK TPDU in response to every Nth DT TPDU
  1033.    received where N > 0 and N may be constant or dynamically determined.
  1034.    Each TPM is provided with this, independent of all other TPMs, so
  1035.    that acknowledgement strategy can be determined separately for each
  1036.    transport connection.  The capability of altering the acknowledgement
  1037.    strategy is useful in operation over networks with varying error
  1038.    rates.
  1039.  
  1040. 1.2.6.3  Sequencing of received data.
  1041.  
  1042.    It is not specified in IS 8073 what must be done with out-of-sequence
  1043.    but within-window DT TPDUs received, except that an AK TPDU with
  1044.    current window and sequence information be sent.  There are
  1045.    performance reasons why such DT TPDUs should be held (cached): in
  1046.    particular, avoidance of retransmissions.  However, this buffering
  1047.    scheme is complicated to implement and worse to describe formally
  1048.    without resorting to mechanisms too closely resembling
  1049.    implementation.  Thus, the formal description mechanism discards such
  1050.    DT TPDUs and relies on retransmission to fill the gaps in the window
  1051.    sequence, for the sake of simplicity in the description.
  1052.  
  1053. 1.2.7   Expedited data.
  1054.  
  1055.    The transmission of expedited data, as expressed by IS 8073, requires
  1056.    the blockage of normal data transmission until the acknowledgement is
  1057.    received.  This is handled in the formal description by providing a
  1058.  
  1059.  
  1060.  
  1061. McCoy                                                          [Page 18]
  1062.  
  1063. RFC 1008                                                       June 1987
  1064.  
  1065.  
  1066.    special state in which normal data transmission cannot take place.
  1067.    However, recent experiments with Class 4 transport over network
  1068.    services with high bandwidth, high transit delay and high error
  1069.    rates, undertaken by the NBS and COMSAT Laboratories, have shown that
  1070.    the protocol suffers a marked decline in its performance in such
  1071.    conditions.  This situation has been presented to ISO, with the
  1072.    result that the the protocol will be modified to permit the sending
  1073.    of normal data already accepted by the transport entity from the user
  1074.    before the expedited data request but not yet put onto the network.
  1075.    When the modification is incorporated into IS 8073, the formal
  1076.    description will be appropriately aligned.
  1077.  
  1078.  
  1079. 2   Environment of implementation.
  1080.  
  1081.    The following sections describe some general approaches to
  1082.    implementing the transport protocol and the advantages and
  1083.    disadvantages of each.  Certain commercial products are identified
  1084.    throughout the rest of this document.  In no case does such
  1085.    identification imply the recommendation or endorsement of these
  1086.    products by the Department of Defense, nor does it imply that the
  1087.    products identified are the best available for the purpose described.
  1088.    In all cases such identification is intended only to illustrate the
  1089.    possibility of implementation of an idea or approach.  UNIX is a
  1090.    trademark of AT&T Bell Laboratories.
  1091.  
  1092.    Most of the discussions in the remainder of the document deal with
  1093.    Class 4 exclusively, since there are far more implementation issues
  1094.    with Class 4 than for Class 2.  Also, since Class 2 is logically a
  1095.    special case of Class 4, it is possible to implement Class 4 alone,
  1096.    with special provisions to behave as Class 2 when necessary.
  1097.  
  1098. 2.1   Host operating system program.
  1099.  
  1100.    A common method of implementing the OSI transport service is to
  1101.    integrate the required code into the specific operating system
  1102.    supporting the data communications applications.  The particular
  1103.    technique for integration usually depends upon the structure and
  1104.    facilities of the operating system to be used.  For example, the
  1105.    transport software might be implemented in the operating system
  1106.    kernel, accessible through a standard set of system calls.  This
  1107.    scheme is typically used when implementing transport for the UNIX
  1108.    operating system.  Class 4 transport has been implemented using this
  1109.    technique for System V by AT&T and for BSD 4.2 by several
  1110.    organizations.  As another example, the transport service might be
  1111.    structured as a device driver.  This approach is used by DEC for the
  1112.    VAX/VMS implementation of classes 0, 2, and 4 of the OSI transport
  1113.    protocol.  The Intel iRMX-86 implementation of Class 4 transport is
  1114.    another example.  Intel implements the transport software as a first
  1115.    level job within the operating system.  Such an approach allows the
  1116.    software to be linked to the operating system and loaded with every
  1117.  
  1118.  
  1119.  
  1120. McCoy                                                          [Page 19]
  1121.  
  1122. RFC 1008                                                       June 1987
  1123.  
  1124.  
  1125.    boot of the system.
  1126.  
  1127.    Several advantages may accrue to the communications user when
  1128.    transport is implemented as an integral part of the operating system.
  1129.    First,  the interface to data communications services is well known
  1130.    to the application programmer since the same principles are followed
  1131.    as for other operating system services.  This allows the fast
  1132.    implementation of communications applications without the need for
  1133.    retraining of programmers.  Second, the operating system can support
  1134.    several different suites of protocols without the need to change
  1135.    application programs.  This advantage can be realized only with
  1136.    careful engineering and control of the user-system call interface to
  1137.    the transport services.  Third, the transport software may take
  1138.    advantage of the normally available operating system services such as
  1139.    scheduling, flow control, memory management, and interprocess
  1140.    communication.  This saves time in the development and maintenance of
  1141.    the transport software.
  1142.  
  1143.    The disadvantages that exist with operating system integration of the
  1144.    TP are primarily dependent upon the specific operating system.
  1145.    However, the major disadvantage, degradation of host application
  1146.    performance, is always present.  Since the communications software
  1147.    requires the attention of the processor to handle interrupts and
  1148.    process protocol events, some degradation will occur in the
  1149.    performance of host applications.  The degree of degradation is
  1150.    largely a feature of the hardware architecture and processing
  1151.    resources required by the protocol.  Other disadvantages that may
  1152.    appear relate to limited performance on the part of the
  1153.    communications service.  This limited performance is usually a
  1154.    function of the particular operating system and is most directly
  1155.    related to the method of interprocess communication provided with the
  1156.    operating system.  In general, the more times a message must be
  1157.    copied from one area of memory to another, the poorer the
  1158.    communications software will perform.  The method of copying and the
  1159.    number  of copies is often a function of the specific operating
  1160.    system.  For example, copying could be optimized if true shared
  1161.    memory is supported in the operating system.  In this case, a
  1162.    significant amount of copying can be reduced to pointer-passing.
  1163.  
  1164. 2.2   User program.
  1165.  
  1166.    The OSI transport service can be implemented as a user job within any
  1167.    operating system provided a means of multi-task communications is
  1168.    available or can be implemented.  This approach is almost always a
  1169.    bad one.  Performance problems will usually exist because the
  1170.    communication task is competing for resources like any other
  1171.    application program.  The only justification for this approach is the
  1172.    need to develop a simple implementation of the transport service
  1173.    quickly.  The NBS implemented the transport protocol using this
  1174.    approach as the basis for a transport protocol correctness testing
  1175.    system.  Since performance was not a goal of the NBS implementation,
  1176.  
  1177.  
  1178.  
  1179. McCoy                                                          [Page 20]
  1180.  
  1181. RFC 1008                                                       June 1987
  1182.  
  1183.  
  1184.    the ease of development and maintenance made this approach
  1185.    attractive.
  1186.  
  1187. 2.3   Independent processing element attached to a system bus.
  1188.  
  1189.    Implementation of the transport service on an independent processor
  1190.    that attaches to the system bus may provide substantial performance
  1191.    improvements over other approaches.  As computing power and memory
  1192.    have become cheaper this approach has become realistic.  Examples
  1193.    include the Intel implementation of iNA-961 on a variety of multibus
  1194.    boards such as the iSBC 186/51 and the iSXM 554.  Similar products
  1195.    have been developed by Motorola and by several independent vendors of
  1196.    IBM PC add-ons.  This approach requires that the transport software
  1197.    operate on an independent hardware set running under operating system
  1198.    code developed to support the communications software environment.
  1199.    Communication with the application programs takes place across the
  1200.    system bus using some simple, proprietary vendor protocol.  Careful
  1201.    engineering can provide the application programmer with a standard
  1202.    interface to the communications processor that is similar to the
  1203.    interface to the input/output subsystem.
  1204.  
  1205.    The advantages of this approach are mainly concentrated upon enhanced
  1206.    performance both for the host applications and the communications
  1207.    service.  Depending on such factors as the speed of the
  1208.    communications processor and the system bus, data communications
  1209.    throughput may improve by one or two orders of magnitude over that
  1210.    available from host operating system integrated implementations.
  1211.    Throughput for host applications should also improve since the
  1212.    communications processing and interrupt handling for timers and data
  1213.    links have been removed from the host processor.  The communications
  1214.    mechanism used between the host and communication processors is
  1215.    usually sufficiently simple that no real burden is added to either
  1216.    processor.
  1217.  
  1218.    The disadvantages for this approach are caused by complexity in
  1219.    developing the communications software.  Software development for the
  1220.    communications board cannot be supported with the standard operating
  1221.    system tools.  A method of downloading the processor board and
  1222.    debugging the communications software may be required; a trade-off
  1223.    could be to put the code into firmware or microcode.  The
  1224.    communications software must include at least a hardware monitor and,
  1225.    more typically, a small operating system to support such functions as
  1226.    interprocess communication, buffer management, flow control, and task
  1227.    synchronization.  Debugging of the user to communication subsystem
  1228.    interface may involve several levels of system software and hardware.
  1229.  
  1230.    The design of the processing element can follow conventional lines,
  1231.    in which a single processor handling almost all of the operation of
  1232.    the protocol.  However, with inexpensive processor and memory chips
  1233.    now available, a multiprocessor design is economically viable.  The
  1234.    diagram below shows one such design, which almost directly
  1235.  
  1236.  
  1237.  
  1238. McCoy                                                          [Page 21]
  1239.  
  1240. RFC 1008                                                       June 1987
  1241.  
  1242.  
  1243.    corresponds to the structure of the formal description.  There are
  1244.    several advantages to this design:
  1245.  
  1246.     1) management of CPU and memory resources is at a minimum;
  1247.  
  1248.     2) essentially no resource contention;
  1249.  
  1250.     3) transport connection operation can be written in microcode,
  1251.        separate from network service handling;
  1252.  
  1253.     4) transport connections can run with true parallelism;
  1254.  
  1255.     5) throughput is not limited by contention of connections for CPU
  1256.        and network access; and
  1257.  
  1258.     6) lower software complexity, due to functional separation.
  1259.  
  1260.    Possible disadvantages are greater inflexibility and hardware
  1261.    complexity.  However, these might be offset by lower development
  1262.    costs for microcode, since the code separation should provide overall
  1263.    lower code complexity in the TPE and the TPM implementations.
  1264.  
  1265.    In this system, the TPE instantiates a TPM by enabling its clock.
  1266.    Incoming Outgoing are passed to the TPMs along the memory bus.  TPDUs
  1267.    TPDUs from a TPM are sent on the output data bus.  The user interface
  1268.    controller accepts connect requests from the user and directs them to
  1269.    the TPE.  The TPE assigns a connection reference and informs the
  1270.    interface controller to direct further inputs for this connection to
  1271.    the designated TPM.  The shared TPM memory is analogous to the
  1272.    exported variables of the TPM modules in the formal description, and
  1273.    is used by the TPE to input TPDUs and other information to the TPM.
  1274.  
  1275.    In summary, the off-loading of communications protocols onto
  1276.    independent processing systems attached to a host processor across a
  1277.    system bus is quite common.  As processing power and memory become
  1278.    cheaper, the amount of software off-loaded grows.  it is now typical
  1279.    to fine transport service available for several system buses with
  1280.    interfaces to operating systems such as UNIX, XENIX, iRMX, MS-DOS,
  1281.    and VERSADOS.
  1282.  
  1283.  
  1284.  
  1285.  
  1286.  
  1287.  
  1288.  
  1289.  
  1290.  
  1291.  
  1292.  
  1293.  
  1294.  
  1295.  
  1296.  
  1297. McCoy                                                          [Page 22]
  1298.  
  1299. RFC 1008                                                       June 1987
  1300.  
  1301.  
  1302.    Legend:    ****  data channel
  1303.               ....  control channel
  1304.               ====  interface i/o bus
  1305.                O    channel or bus connection point
  1306.  
  1307.  
  1308.                   user
  1309.                   input
  1310.                     *
  1311.                     *
  1312.           __________V_________
  1313.           |  user interface  |       input bus
  1314.           |    controller    |=================O==============O=======
  1315.           |__________________|                 *              *
  1316.                     *                          *              *
  1317.                     *                          *       _______*_______
  1318.                     *                          *       | data buffers|
  1319.                     *                          *    ...|     TPM1    |
  1320.                     *                          *    :  |_____________|
  1321.                     *                          *    :         *
  1322.                     *                          *    :         *
  1323.    _________   _____*__________   ________   __*____:______   *
  1324.    |  TPE  |   | TPE processor|   |shared|   |    TPM1    |   *
  1325.    |buffers|***|              |   | TPM1 |***|  processor |   *
  1326.    |_______|   |______________|   | mem. |   |____________|   *
  1327.        *         :    :    *      |______|        :           *
  1328.        *         :    :    *          *           :           *
  1329.        *         :    :    ***********O***********:********************
  1330.        *         :    :       memory bus          :           *
  1331.        *         :    :                           :           *
  1332.        *         :    :...........................O...........*........
  1333.    ____*_________:___         clock enable                    *
  1334.    |    network     |                                         *
  1335.    |   interface    |=========================================O========
  1336.    |   controller   |         output data bus
  1337.    |________________|
  1338.            *
  1339.            *
  1340.            V
  1341.       to network
  1342.        interface
  1343.  
  1344.  
  1345. 2.4   Front end processor.
  1346.  
  1347.    A more traditional approach to off-loading communications protocols
  1348.    involves the use of a free-standing front end processor, an approach
  1349.    very similar to that of placing the transport service onto a board
  1350.    attached to the system bus.  The difference is one of scale.  Typical
  1351.    front end p interface locally as desirable, as long as such additions
  1352.    are strictly local (i.e., the invoking of such services does not
  1353.  
  1354.  
  1355.  
  1356. McCoy                                                          [Page 23]
  1357.  
  1358. RFC 1008                                                       June 1987
  1359.  
  1360.  
  1361.    result in the exchange of TPDUs with the peer entity).
  1362.  
  1363.    The interface between the  user  and  transport  is  by nature
  1364.    asynchronous (although some hypothetical implementation that is
  1365.    wholly synchronous could be conjectured).  This characteristic  is
  1366.    due  to two factors: 1) the interprocess communications (IPC)
  1367.    mechanism--used  between  the  user  and transport--decouples the
  1368.    two, and to avoid blocking the user process (while waiting for a
  1369.    response) requires  an  asynchronous response  mechanism,  and  2)
  1370.    there are some asynchronously-generated transport indications that
  1371.    must  be handled (e.g.,  the  arrival of user data or the abrupt
  1372.    termination of  the  transport  connection  due  to  network errors).
  1373.  
  1374.    If it is assumed that the user interface to transport is
  1375.    asynchronous,  there are other aspects of the interface that are also
  1376.    predetermined.  The most important of these is that transport
  1377.    service  requests are confirmed twice.  The first confirmation occurs
  1378.    at the time  of  the  transport  service request  initiation.  Here,
  1379.    interface routines can be used to identify invalid sequences of
  1380.    requests, such as a request to  send  data  on  a  connection that is
  1381.    not yet open.  The second confirmation occurs when the service
  1382.    request crosses the interface into the transport entity.  The entity
  1383.    may accept or reject the request, depending on its resources and its
  1384.    assessment of connection (transport and network) status, priority,
  1385.    service quality.
  1386.  
  1387.    If the interface is to be asynchronous, then some mechanism must be
  1388.    provided to handle the asynchronous (and sometimes unexpected)
  1389.    events.  Two ways this is commonly achieved are: 1) by polling, and
  1390.    2) by a software interrupt mechanism.  The first of these can be
  1391.    wasteful of host resources in a multiprogramming environment, while
  1392.    the second may be complicated to implement.  However, if the
  1393.    interface is a combination of hardware and software, as in the cases
  1394.    discussed in Parts 2.3 and 2.4, then hardware interrupts may be
  1395.    available.
  1396.  
  1397.    One way of implementing the abstract services is to associate with
  1398.    each service primitive an actual function that is invoked.  Such
  1399.    functions could be held in a special interface library with other
  1400.    functions and procedures that realize the interface.  Each service
  1401.    primitive function would access the interprocess communication (IPC)
  1402.    mechanism as necessary to pass parameters to/from the transport
  1403.    entity.
  1404.  
  1405.    The description of the abstract service in IS 8073 and N3756 implies
  1406.    that the interface must handle TSDUs of arbitrary length.  This
  1407.    situation suggests that it may be useful to implement a TSDU as an
  1408.    object such as a file-pointer rather than as the message itself.  In
  1409.    this way, in the sending entity, TPDUs can be formed by reading
  1410.    segments of TPDU-size from the file designated, without regard for
  1411.    the actual length of the file.  In the receiving entity, each new
  1412.  
  1413.  
  1414.  
  1415. McCoy                                                          [Page 24]
  1416.  
  1417. RFC 1008                                                       June 1987
  1418.  
  1419.  
  1420.    TPDU could be buffered in a file designated by a file-pointer, which
  1421.    would then be passed to the user when the EOT arrives.  In the formal
  1422.    description of transport, this procedure is actually described,
  1423.    although explicit file-pointers and files are not used in the
  1424.    description.  This method of implementing the data interface is not
  1425.    essentially different from maintaining a linked list of buffers.  (A
  1426.    disk file is arranged in precisely this fashion, although the file
  1427.    user is usually not aware of the structure.)
  1428.  
  1429.    The abstract service definition describes  the  set  of parameters
  1430.    that must be passed in each of the service primitives so that
  1431.    transport can act properly on  behalf  of  the user.   These
  1432.    parameters are required for the transport protocol to operate
  1433.    correctly (e.g., a called address  must  be passed  with  the
  1434.    connect  request and the connect response must contain a responding
  1435.    address).   The  abstract  service defintion does not preclude,
  1436.    however, the inclusion of local parameters.  Local parameters may be
  1437.    included in the implementation  of  the  service  interface  for use
  1438.    by the local entity.  One example is a buffer management parameter
  1439.    passed from  the  user  in connect requests and confirms, providing
  1440.    the transport entity with expected buffer  usage  estimates.  The
  1441.    local  entity  could  use  this  in implementing a more efficient
  1442.    buffer management strategy than would otherwise be possible.
  1443.  
  1444.    One issue that is  of  importance  when  designing  and implementing
  1445.    a transport entity is the provision of a registration mechanism for
  1446.    transport users.  This facility provides a means of identifying to
  1447.    the transport entity those users who are willing to participate in
  1448.    communications with remote users.  An example of such a user is a
  1449.    data base management system, which ordinarily responds to connections
  1450.    requests rather than to initiate them.  This procedure of user
  1451.    identification is sometimes called a "passive open".  There are
  1452.    several ways in which registration can be implemented.  One is to
  1453.    install the set of users that  provide services  in  a table at
  1454.    system generation time.  This method may have the disadvantage of
  1455.    being  inflexible.   A  more flexible  approach is to implement a
  1456.    local transport service primitive, "listen", to indicate a waiting
  1457.    user.   The  user then  registers  its transport suffix with the
  1458.    transport entity via the listen primitive.  Another possibility is a
  1459.    combination of predefined table and listen primitive.  Other
  1460.    parameters may also be included,  such  as a partially or fully
  1461.    qualified transport address from which the user is willing  to
  1462.    receive  connections.  A  variant  on  this  approach  is  to
  1463.    provide  an ACTIVE/PASSIVE local parameter on the connect  request
  1464.    service primitive.  Part 5 discusses this issue in more detail.
  1465.  
  1466. 3.2   Flow control.
  1467.  
  1468.    Interface flow control is generally considered to be a local
  1469.    implementation issue.  However, in order to completely specify the
  1470.    behavior of the transport entity, it was necessary to include in the
  1471.  
  1472.  
  1473.  
  1474. McCoy                                                          [Page 25]
  1475.  
  1476. RFC 1008                                                       June 1987
  1477.  
  1478.  
  1479.    formal description a model of the control of data flow across the
  1480.    service boundaries of transport.  The international standards for
  1481.    transport and the OSI reference model state only that interface flow
  1482.    control shall be provided but give no guidance on its features.
  1483.  
  1484.    The actual mechanisms used to accomplish flow control, which need not
  1485.    explicitly follow the model in the formal description, are dependent
  1486.    on the way in which the interface itself is realized, i.e., what
  1487.    TSDUs and service primitives really are and how the transport entity
  1488.    actually communicates with its user, its environment, and the network
  1489.    service.  For example, if the transport entity communicates with its
  1490.    user by means of named (UNIX) pipes, then flow control can be
  1491.    realized using a special interface library routine, which the
  1492.    receiving process invokes, to control the pipe.  This approach also
  1493.    entails some consideration for the capacity of the pipe and blocking
  1494.    of the sending process when the pipe is full (discussed further in
  1495.    Part 3.3).  The close correspondence of this interpretation to the
  1496.    model is clear.  However, such an interpretation is apparently not
  1497.    workable if the user process and the transport entity are in
  1498.    physically separate processors.  In this situation, an explicit
  1499.    protocol between the receiving process and the sending process must
  1500.    be provided, which could have the complexity of the data transfer
  1501.    portion of the Class 0 transport protocol (Class 2 if flow
  1502.    controlled).  Note that the formal model, under proper
  1503.    interpretation, also describes this mechanism.
  1504.  
  1505. 3.3   Interprocess communication.
  1506.  
  1507.    One of the most important elements of a data communication system is
  1508.    the approach to interprocess communication (IPC).  This is true
  1509.    because suites of protocols are often implemented as groups of
  1510.    cooperating tasks.  Even if the protocol suites are not implemented
  1511.    as task groups, the communication system is a funnel for service
  1512.    requests from multiple user processes.  The services are normally
  1513.    communicated through some interprocess pathway.  Usually, the
  1514.    implementation environment places some restrictions upon the
  1515.    interprocess communications method that can be used.  This section
  1516.    describes the desired traits of IPC for use in data communications
  1517.    protocol implementations, outlines some possible uses for IPC, and
  1518.    discusses three common and generic approaches to IPC.
  1519.  
  1520.    To support the implementation of data communications protocols, IPC
  1521.    should possess several desirable traits.  First,  IPC should be
  1522.    transaction based.  This permits sending a message without the
  1523.    overhead of establishing and maintaining a connection.  The
  1524.    transactions should be confirmed so that a sender can detect and
  1525.    respond to non-delivery.  Second,  IPC should support both the
  1526.    synchronous and the asynchronous modes of message exchange.  An IPC
  1527.    receiver should be able to ask for delivery of any pending messages
  1528.    and not be blocked from continuing if no messages are present.
  1529.    Optionally, the receiver should be permitted to wait if no messages
  1530.  
  1531.  
  1532.  
  1533. McCoy                                                          [Page 26]
  1534.  
  1535. RFC 1008                                                       June 1987
  1536.  
  1537.  
  1538.    are present, or to continue if the path to the destination is
  1539.    congested.  Third, IPC should preserve the order of messages sent to
  1540.    the same destination.  This allows the use of the IPC without
  1541.    modification to support protocols that preserve user data sequence.
  1542.    Fourth, IPC should provide a flow control mechanism to allow pacing
  1543.    of the sender's transmission speed to that of the receiver.
  1544.  
  1545.    The uses of IPC in implementation of data communication systems are
  1546.    many and varied.  A common and expected use for IPC is that of
  1547.    passing user messages among the protocol tasks that are cooperating
  1548.    to perform the data communication functions.  The user messages may
  1549.    contain the actual data or, more efficiently, references to the
  1550.    location of the user data.  Another common use for the IPC is
  1551.    implementation and enforcement of local interface flow control.  By
  1552.    limiting the number of IPC messages queued on a particular address,
  1553.    senders can be slowed to a rate appropriate for the IPC consumer.  A
  1554.    third typical use for IPC is the synchronization of processes.  Two
  1555.    cooperating tasks can coordinate their activities or access to shared
  1556.    resources by passing IPC messages at particular events in their
  1557.    processing.
  1558.  
  1559.    More creative uses of IPC include buffer, timer, and scheduling
  1560.    management.  By establishing buffers as a list of messages available
  1561.    at a known address at system initialization time, the potential
  1562.    exists to manage buffers simply and efficiently.  A process requiring
  1563.    a buffer would simply read an IPC message from the known address.  If
  1564.    no messages (i.e., buffers) are available, the process could block
  1565.    (or continue, as an option).  A process that owned a buffer and
  1566.    wished to release it would simply write a message to the known
  1567.    address, thus unblocking any processes waiting for a buffer.
  1568.  
  1569.    To manage timers, messages can be sent to a known address that
  1570.    represents the timer module.  The timer module can then maintain the
  1571.    list of timer messages with respect to a hardware clock.  Upon
  1572.    expiration of a timer, the associated message can be returned to the
  1573.    originator via IPC.  This provides a convenient method to process the
  1574.    set of countdown timers required by the transport protocol.
  1575.  
  1576.    Scheduling management can be achieved by using separate IPC addresses
  1577.    for message classes.  A receiving process can enforce a scheduling
  1578.    discipline by the order in which the message queues are read.  For
  1579.    example, a transport process might possess three queues:  1) normal
  1580.    data from the user, 2) expedited data from the user, and 3) messages
  1581.    from the network.  If the transport process then wants to give top
  1582.    priority to network messages, middle priority to expedited user
  1583.    messages, and lowest priority to normal user messages, all that is
  1584.    required is receipt of IPC messages on the highest priority queue
  1585.    until no more messages are available.  Then the receiver moves to the
  1586.    next lower in priority and so on.  More sophistication is possible by
  1587.    setting limits upon the number of consecutive messages received from
  1588.    each queue and/or varying the order in which each queue is examined.
  1589.  
  1590.  
  1591.  
  1592. McCoy                                                          [Page 27]
  1593.  
  1594. RFC 1008                                                       June 1987
  1595.  
  1596.  
  1597.    It is easy to see how a round-robin scheduling discipline could be
  1598.    implemented using this form of IPC.
  1599.  
  1600.    Approaches to IPC can be placed into one of three classes:  1) shared
  1601.    memory, 2) memory-memory copying, and 3) input/output channel
  1602.    copying. Shared memory is the most desirable of the three classes
  1603.    because the amount of data movement is kept to a minimum.  To pass
  1604.    IPC messages using shared memory, the sender builds a small message
  1605.    referencing a potentially large amount of user data.  The small
  1606.    message is then either copied from the sender's process space to the
  1607.    receiver's process space or the small message is mapped from one
  1608.    process space to another using techniques specific to the operating
  1609.    system and hardware involved.  These approaches to shared memory are
  1610.    equivalent since the amount of data movement is kept to a minimum.
  1611.    The price to be paid for using this approach is due to the
  1612.    synchronization of access to the shared memory.  This type of sharing
  1613.    is well understood, and several efficient and simple techniques exist
  1614.    to manage the sharing.
  1615.  
  1616.    Memory-memory copying is an approach that has been commonly used for
  1617.    IPC in UNIX operating system implementations.  To pass an IPC message
  1618.    under UNIX data is copied from the sender's buffer to a kernel buffer
  1619.    and then from a kernel buffer to the receiver's buffer.  Thus two
  1620.    copy operations are required for each IPC message. Other methods
  1621.    might only involve a single copy operation.  Also note that if one of
  1622.    the processes involved is the transport protocol implemented in the
  1623.    kernel, the IPC message must only be copied once.  The main
  1624.    disadvantage of this approach is inefficiency.  The major advantage
  1625.    is simplicity.
  1626.  
  1627.    When the processes that must exchange messages reside on physically
  1628.    separate computer systems (e.g., a host and front end), an
  1629.    input/output channel of some type must be used to support the IPC.
  1630.    In such a case, the problem is similar to that of the general problem
  1631.    of a transport protocol.  The sender must provide his IPC message to
  1632.    some standard operating system output mechanism from where it will be
  1633.    transmitted via some physical medium to the receiver's operating
  1634.    system.  The receiver's operating system will then pass the message
  1635.    on to the receiving process via some standard operating system input
  1636.    mechanism.  This set of procedures can vary greatly in efficiency and
  1637.    complexity depending upon the operating systems and hardware
  1638.    involved.  Usually this approach to IPC is used only when the
  1639.    circumstances require it.
  1640.  
  1641. 3.4   Interface to real networks.
  1642.  
  1643.    Implementations of the class 4 transport protocol have been operated
  1644.    over a wide variety of networks including:  1) ARPANET, 2) X.25
  1645.    networks, 3) satellite channels, 4) CSMA/CD local area networks, 5)
  1646.    token bus local area networks, and  6) token ring local area
  1647.    networks.  This section briefly describes known instances of each use
  1648.  
  1649.  
  1650.  
  1651. McCoy                                                          [Page 28]
  1652.  
  1653. RFC 1008                                                       June 1987
  1654.  
  1655.  
  1656.    of class 4 transport and provides some quantitative evaluation of the
  1657.    performance expectations for transport over each network type.
  1658.  
  1659. 3.4.1   Issues.
  1660.  
  1661.    The interface of the transport entity to the network service in
  1662.    general will be realized in a different way from the user interface.
  1663.    The network service processor is often separate from the host CPU,
  1664.    connected to it by a bus, direct memory access (DMA), or other link.
  1665.    A typical way to access the network service is by means of a device
  1666.    driver.  The transfer of data across the interface in this instance
  1667.    would be by buffer-copying.  The use of double-buffering reduces some
  1668.    of the complexity of flow control, which is usually accomplished by
  1669.    examining the capacity of the target buffer.  If the transport
  1670.    processor and the network processor are distinct and connected by a
  1671.    bus or external link, the network access may be more complicated
  1672.    since copying will take place across the bus or link rather than
  1673.    across the memory board.  In any case, the network service
  1674.    primitives, as they appear in the formal description and IS 8073 must
  1675.    be carefully correlated to the actual access scheme, so that the
  1676.    semantics of the primitives is preserved.  One way to do this is to
  1677.    create a library of routines, each of which corresponds to one of the
  1678.    service primitives.  Each routine is responsible for sending the
  1679.    proper signal to the network interface unit, whether this
  1680.    communication is directly, as on a bus, or indirectly via a device
  1681.    driver.  In the case of a connectionless network service, there is
  1682.    only one primitive, the N_DATA_request (or N_UNIT_DATA_request),
  1683.    which has to be realized.
  1684.  
  1685.    In the formal description, flow control to the NSAP is controlled by
  1686.    by a Slave module, which exerts the "backpressure" on the TPM if its
  1687.    internal queue gets too long.  Incoming flow, however, is controlled
  1688.    in much the same way as the flow to the transport user is controlled.
  1689.    The implementor is reminded that the formal description of the flow
  1690.    control is specified for completeness and not as an implementation
  1691.    guide.  Thus, an implementation should depend upon actual interfaces
  1692.    in the operating environment to realize necessary functions.
  1693.  
  1694. 3.4.2   Instances of operation.
  1695.  
  1696. 3.4.2.1   ARPANET
  1697.  
  1698.    An early implementation of the class 4 transport protocol was
  1699.    developed by the NBS as a basis for conformance tests [NBS83].  This
  1700.    implementation was used over the ARPANET to communicate between NBS,
  1701.    BBN, and DCA.  The early NBS implementation was executed on a
  1702.    PDP-11/70.  A later revision of the NBS implementation has been moved
  1703.    to a VAX-11/750 and VAX-11/7;80. The Norwegian Telecommunication
  1704.    Administration (NTA) has implemented class 4 transport for the UNIX
  1705.    BSD 4.2 operating system to run on a VAX [NTA84].  A later NTA
  1706.    implementation runs on a Sun 2-120 workstation.  The University of
  1707.  
  1708.  
  1709.  
  1710. McCoy                                                          [Page 29]
  1711.  
  1712. RFC 1008                                                       June 1987
  1713.  
  1714.  
  1715.    Wisconsin has also implemented the class 4 transport protocol on a
  1716.    VAX-11/750 [BRI85]. The Wisconsin implementation is embedded in the
  1717.    BSD 4.2 UNIX kernel.  For most of these implementations class 4
  1718.    transport runs above the DOD IP and below DOD application protocols.
  1719.  
  1720. 3.4.2.2   X.25 networks
  1721.  
  1722.    The NBS implementations have been used over Telenet, an X.25 public
  1723.    data network (PDN).  The heaviest use has been testing of class 4
  1724.    transport between the NBS and several remotely located vendors, in
  1725.    preparation for a demonstration at the 1984 National Computing
  1726.    Conference and the 1985 Autofact demonstration.  Several approaches
  1727.    to implementation were seen in the vendors' systems, including ones
  1728.    similar to those discussed in Part 6.2.  At the Autofact
  1729.    demonstration many vendors operated class 4 transport and the ISO
  1730.    internetwork protocol across an internetwork of CSMA/CD and token bus
  1731.    local networks and Accunet, an AT&T X.25 public data network.
  1732.  
  1733. 3.4.2.3   Satellite channels.
  1734.  
  1735.    The COMSAT Laboratories have implemented class 4 transport for
  1736.    operation over point-to-point satellite channels with data rates up
  1737.    to 1.544 Mbps [CHO85].  This implementation has been used for
  1738.    experiments between the NBS and COMSAT.  As a result of these
  1739.    experiments several improvements have been made to the class 4
  1740.    transport specification within the international standards arena
  1741.    (both ISO and CCITT). The COMSAT implementation runs under a
  1742.    proprietary multiprocessing operating system known as COSMOS.  The
  1743.    hardware base includes multiple Motorola 68010 CPUs with local memory
  1744.    and Multibus shared memory for data messages.
  1745.  
  1746. 3.4.2.4   CSMA/CD networks.
  1747.  
  1748.    The CSMA/CD network as defined by the IEEE 802.3 standard is the most
  1749.    popular network over which the class 4 transport has been
  1750.    implemented. Implementations of transport over CSMA/CD networks have
  1751.    been demonstrated by: AT&T, Charles River Data Systems,
  1752.    Computervision, DEC, Hewlitt-Packard, ICL, Intel, Intergraph, NCR and
  1753.    SUN.  Most of these were demonstrated at the 1984 National Computer
  1754.    Conference [MIL85b] and again at the 1985 Autofact Conference.
  1755.    Several of these vendors are now delivering products based on the
  1756.    demonstration software.
  1757.  
  1758. 3.4.2.5   Token bus networks.
  1759.  
  1760.    Due to the establishment of class 4 transport as a mandatory protocol
  1761.    within the General Motor's manufacturing automation protocol (MAP),
  1762.    many implementations have been demonstrated operating over a token
  1763.    bus network as defined by the IEEE 802.4 standard.  Most past
  1764.    implementations relied upon a Concord Data Systems token interface
  1765.    module (TIM) to gain access to the 5 Mbps broadband 802.4 service.
  1766.  
  1767.  
  1768.  
  1769. McCoy                                                          [Page 30]
  1770.  
  1771. RFC 1008                                                       June 1987
  1772.  
  1773.  
  1774.    Several vendors have recently announced boards supporting a 10 Mbps
  1775.    broadband 802.4 service.  The newer boards plug directly into
  1776.    computer system buses while the TIM's are accessed across a high
  1777.    level data link control (HDLC) serial channel.  Vendors demonstrating
  1778.    class 4 transport over IEEE 802.4 networks include Allen-Bradley,
  1779.    AT&T, DEC, Gould, Hewlett-Packard, Honeywell, IBM, Intel, Motorola,
  1780.    NCR and Siemens.
  1781.  
  1782. 3.4.2.6   Token ring networks.
  1783.  
  1784.    The class 4 transport implementations by the University of Wisconsin
  1785.    and by the NTA run over a 10 Mbps token ring network in addition to
  1786.    ARPANET.  The ring used is from Proteon rather than the recently
  1787.    finished IEEE 802.5 standard.
  1788.  
  1789. 3.4.3   Performance expectations.
  1790.  
  1791.    Performance research regarding the class 4 transport protocol has
  1792.    been limited.  Some work has been done at the University of
  1793.    Wisconsin, at NTA, at Intel, at COMSAT, and at the NBS.  The material
  1794.    presented below draws from this limited body of research to provide
  1795.    an implementor with some quantitative feeling for the performance
  1796.    that can be expected from class 4 transport implementations using
  1797.    different network types.  More detail is available from several
  1798.    published reports [NTA84, BRI85, INT85, MIL85b, COL85].  Some of the
  1799.    results reported derive from actual measurements while other results
  1800.    arise from simulation.  This distinction is clearly noted.
  1801.  
  1802. 3.4.3.1   Throughput.
  1803.  
  1804.    Several live experiments have been conducted to determine the
  1805.    throughput possible with implementations of class 4 transport.
  1806.    Achievable throughput depends upon many factors including:  1) CPU
  1807.    capabilities, 2) use or non-use of transport checksum, 3) IPC
  1808.    mechanism, 4) buffer management technique, 5) receiver resequencing,
  1809.    6) network error properties, 7) transport flow control, 8) network
  1810.    congestion and 9) TPDU size.  Some of these are specifically
  1811.    discussed elsewhere in this document.  The reader must keep in mind
  1812.    these issues when interpreting the throughput measures presented
  1813.    here.
  1814.  
  1815.    The University of Wisconsin implemented class 4 transport in the UNIX
  1816.    kernel for a VAX-11/750 with the express purpose of measuring the
  1817.    achievable throughput.  Throughputs observed over the ARPANET ranged
  1818.    between 10.4 Kbps and 14.4 Kbps.  On an unloaded Proteon ring local
  1819.    network, observed throughput with checksum ranged between 280 Kbps
  1820.    and 560 Kbps.  Without checksum, throughput ranged between 384 Kbps
  1821.    and 1 Mbps.
  1822.  
  1823.    The COMSAT Laboratories implemented class 4 transport under a
  1824.    proprietary multiprocessor operating system for a multiprocessor
  1825.  
  1826.  
  1827.  
  1828. McCoy                                                          [Page 31]
  1829.  
  1830. RFC 1008                                                       June 1987
  1831.  
  1832.  
  1833.    68010 hardware architecture.  The transport implementation executed
  1834.    on one 68010 while the traffic generator and link drivers executed on
  1835.    a second 68010.  All user messages were created in a global shared
  1836.    memory and were copied only for transmission on the satellite link.
  1837.    Throughputs as high as 1.4 Mbps were observed without transport
  1838.    checksumming while up to 535 Kbps could be achieved when transport
  1839.    checksums were used.  Note that when the 1.4 Mbps was achieved the
  1840.    transport CPU was idle 20% of the time (i.e., the 1.544 Mbps
  1841.    satellite link was the bottleneck).  Thus, the transport
  1842.    implementation used here could probably achieve around 1.9 Mbps user
  1843.    throughput with the experiment parameters remaining unchanged.
  1844.    Higher throughputs are possible by increasing the TPDU size; however,
  1845.    larger messages stand an increased chance of damage during
  1846.    transmission.
  1847.  
  1848.    Intel has implemented a class 4 transport product for operation over
  1849.    a CSMA/CD local network (iNA-960 running on the iSBC 186/51 or iSXM
  1850.    552).  Intel has measured throughputs achieved with this combination
  1851.    and  has published the results in a technical analysis comparing
  1852.    iNA-960 performance on the 186/51 with iNA-960 on the 552.  The CPU
  1853.    used to run transport was a 6 MHz 80186.  An 82586 co-processor was
  1854.    used to handle the medium access control.  Throughputs measured
  1855.    ranged between 360 Kbps and 1.32 Mbps, depending on the parameter
  1856.    values used.
  1857.  
  1858.    Simulation of class 4 transport via a model developed at the NBS has
  1859.    been used to predict the performance of the COMSAT implementation and
  1860.    is now being used to predict the performance of a three processor
  1861.    architecture that includes an 8 MHz host connected to an 8 MHz front
  1862.    end over a system bus.  The third processor provides medium access
  1863.    control for the specific local networks  being modeled.  Early model
  1864.    results predict throughputs over an unloaded CSMA/CD local network of
  1865.    up to 1.8 Mbps.  The same system modeled over a token bus local
  1866.    network with the same transport parameters yields throughput
  1867.    estimates of up to 1.6 Mbps.  The token bus technology, however,
  1868.    permits larger message sizes than CSMA/CD does.  When TPDUs of 5120
  1869.    bytes are used, throughput on the token bus network is predicted to
  1870.    reach 4.3 Mbps.
  1871.  
  1872. 3.4.3.2   Delay.
  1873.  
  1874.    The one-way delay between sending transport user and receiving
  1875.    transport user is determined by a complex set of factors.  Readers
  1876.    should also note that, in general, this is a difficult measure to
  1877.    make and little work has been done to date with respect to expected
  1878.    one-way delays with class 4 transport implementations.  In this
  1879.    section a tutorial is given to explain the factors that determine the
  1880.    one-way delay to be expected by a transport user.  Delay experiments
  1881.    performed by Intel are reported [INT85], as well as some simulation
  1882.    experiments conducted by the NBS [MIL85a].
  1883.  
  1884.  
  1885.  
  1886.  
  1887. McCoy                                                          [Page 32]
  1888.  
  1889. RFC 1008                                                       June 1987
  1890.  
  1891.  
  1892.    The transport user can generally expect one-way delays to be
  1893.    determined by the following equation.
  1894.  
  1895.  
  1896.      D = TS + ND + TR + [IS] + [IR]        (1)
  1897.  
  1898.  
  1899.    where:
  1900.  
  1901.       [.] means the enclosed quantity may be 0
  1902.  
  1903.       D is the one-way transport user delay,
  1904.  
  1905.       TS is the transport data send processing time,
  1906.  
  1907.       IS is the internet datagram send processing time,
  1908.  
  1909.       ND is the network delay,
  1910.  
  1911.       IR is the internet datagram receive processing
  1912.       time, and
  1913.  
  1914.       TR is the transport data receive processing time.
  1915.  
  1916.  
  1917.    Although no performance measurements are available for the ISO
  1918.    internetwork protocol (ISO IP), the ISO IP is so similar to the DOD
  1919.    IP that processing times associated with sending and receiving
  1920.    datagrams should be the about the same for both IPs.  Thus, the IS
  1921.    and IR terms given above are ignored from this point on in the
  1922.    discussion.  Note that many of these factors vary depending upon the
  1923.    application traffic pattern and loads seen by a transport
  1924.    implementation.  In the following discussion, the transport traffic
  1925.    is assumed to be a single message.
  1926.  
  1927.    The value for TS depends upon the CPU used, the IPC mechanism, the
  1928.    use or non-use of checksum, the size of the user message and the size
  1929.    of TPDUs, the buffer management scheme in use, and the method chosen
  1930.    for timer management.  Checksum processing times have been observed
  1931.    that include 3.9 us per octet for a VAX-11/750, 7.5 us per octet on a
  1932.    Motorola 68010, and 6 us per octet on an Intel 80186.  The class 4
  1933.    transport checksum algorithm has considerable effect on achievable
  1934.    performance. This is discussed further in Part 7.  Typical values for
  1935.    TS, excluding the processing due to the checksum, are about 4 ms for
  1936.    CPUs such as the Motorola 68010 and the Intel 80186.  For 1024 octet
  1937.    TPDUs, checksum calculation can increase the TS value to about 12 ms.
  1938.  
  1939.    The value of TR depends upon similar details as TS.  An additional
  1940.    consideration is whether or not the receiver caches (buffers) out of
  1941.    order TPDUs.  If so, the TR will be higher when no packets are lost
  1942.    (because of the overhead incurred by the resequencing logic).  Also,
  1943.  
  1944.  
  1945.  
  1946. McCoy                                                          [Page 33]
  1947.  
  1948. RFC 1008                                                       June 1987
  1949.  
  1950.  
  1951.    when packets are lost, TR can appear to increase due to transport
  1952.    resequencing delay.  When out of order packets are not cached, lost
  1953.    packets increase D because each unacknowledged packet must be
  1954.    retransmitted (and then only after a delay waiting for the
  1955.    retransmission timer to expire).  These details are not taken into
  1956.    account in equation 1.  Typical TR values that can be expected with
  1957.    non-caching implementations on Motorola 68010 and Intel 80186 CPUs
  1958.    are approximately 3 to 3.5 ms.  When transport checksumming is used
  1959.    on these CPUs, TR becomes about 11 ms for 1024 byte TPDUs.
  1960.  
  1961.    The value of ND is highly variable, depending on the specific network
  1962.    technology in use and on the conditions in that network.  In general,
  1963.    ND can be defined by the following equation.
  1964.  
  1965.  
  1966.      ND = NQ + MA + TX + PD + TQ   (2)
  1967.  
  1968.  
  1969.    where:
  1970.  
  1971.      NQ is network queuing delay,
  1972.  
  1973.      MA is medium access delay,
  1974.  
  1975.      TX is message transmission time,
  1976.  
  1977.      PD is network propagation delay, and
  1978.  
  1979.      TQ is transport receive queuing delay.
  1980.  
  1981.    Each term of the equation is discussed in the following paragraphs.
  1982.  
  1983.    Network queuing delay (NQ) is the time that a TPDU waits on a network
  1984.    transmit queue until that TPDU is the first in line for transmission.
  1985.    NQ depends on the size of the network transmit queue, the rate at
  1986.    which the queue is emptied, and the number of TPDUs already on the
  1987.    queue.  The size of the transmit queue is usually an implementation
  1988.    parameter and is generally at least two messages.  The rate at which
  1989.    the queue empties depends upon MA and TX (see the discussion below).
  1990.    The number of TPDUs already on the queue is determined by the traffic
  1991.    intensity (ratio of mean arrival rate to mean service rate).  As an
  1992.    example, consider an 8 Kbps point-to-point link serving an eight
  1993.    message queue that contains 4 messages with an average size of 200
  1994.    bytes per message.  The next message to be placed into the transmit
  1995.    queue would experience an NQ of 800 ms (i.e., 4 messages times 200
  1996.    ms).  In this example, MA is zero.  These basic facts permit the
  1997.    computation of NQ for particular environments.  Note that if the
  1998.    network send queue is full, back pressure flow control will force
  1999.    TPDUs to queue in transport transmit buffers and cause TS to appear
  2000.    to increase by the amount of the transport queuing delay.  This
  2001.    condition depends on application traffic patterns but is ignored for
  2002.  
  2003.  
  2004.  
  2005. McCoy                                                          [Page 34]
  2006.  
  2007. RFC 1008                                                       June 1987
  2008.  
  2009.  
  2010.    the purpose of this discussion.
  2011.  
  2012.    The value of MA depends upon the network access method and on the
  2013.    network congestion or load.  For a point-to-point link MA is zero.
  2014.    For CSMA/CD networks MA depends upon the load, the number of
  2015.    stations, the arrival pattern, and the propagation delay.  For
  2016.    CSMA/CD networks MA has values that typically range from zero (no
  2017.    load) up to about 3 ms (80% loads).  Note that the value of MA as
  2018.    seen by individual stations on a CSMA/CD network is predicted (by NBS
  2019.    simulation studies) to be as high as 27 ms under 70% loads.  Thus,
  2020.    depending upon the traffic patterns, individual stations may see an
  2021.    average MA value that is much greater than the average MA value for
  2022.    the network as a whole. On token bus networks MA is determined by the
  2023.    token rotation time (TRT) which depends upon the load, the number of
  2024.    stations, the arrival pattern, the propagation delay, and the values
  2025.    of the token holding time and target rotation times at each station.
  2026.  
  2027.    For small networks of 12 stations with a propagation delay of 8 ns,
  2028.    NBS simulation studies predict TRT values of about 1 ms for zero load
  2029.    and 4.5 ms for 70% loads for 200 byte messages arriving with
  2030.    exponential arrival distribution.  Traffic patterns also appear to be
  2031.    an important determinant of target rotation time.  When a pair of
  2032.    stations performs a continuous file transfer, average TRT for the
  2033.    simulated network is predicted to be 3 ms for zero background load
  2034.    and 12.5 ms for 70% background load (total network load of 85%).
  2035.  
  2036.    The message size and the network transmission speed directly
  2037.    determine TX.  Typical transmission speeds include 5 and 10 Mbps for
  2038.    standard local networks;  64 Kbps, 384 Kbps, or 1.544 Mbps for
  2039.    point-to-point satellite channels;  and 9.6 Kbps or 56 Kbps for
  2040.    public data network access links.
  2041.  
  2042.    The properties of the network in use determine the values of PD. On
  2043.    an IEEE 802.3 network, PD is limited to 25.6 us.  For IEEE 802.4
  2044.    networks, the signal is propagated up-link to a head end and then
  2045.    down-link from the head end.  Propagation delay in these networks
  2046.    depends on the distance of the source and destination stations from
  2047.    the head end and on the head end latency. Because the maximum network
  2048.    length is much greater than with IEEE 802.3 networks, the PD values
  2049.    can also be much greater.  The IEEE 802.4 standard requires that a
  2050.    network provider give a value for the maximum transmission path
  2051.    delay.  For satellite channels PD is typically between 280 and 330
  2052.    ms.  For the ARPANET, PD depends upon the number of hops that a
  2053.    message makes between source and destination nodes.  The NBS and NTIA
  2054.    measured ARPANET PD average values of about 190 ms [NTI85].  In the
  2055.    ARPA internet system the PD is quite variable, depending on the
  2056.    number of internet gateway hops and the PD values of any intervening
  2057.    networks (possibly containing satellite channels).  In experiments on
  2058.    an internetwork containing a a satellite link to Korea, it was
  2059.    determined by David Mills [RFC85] that internet PD values could range
  2060.    from 19 ms to 1500 ms.  Thus, PD values ranging from 300 to 600 ms
  2061.  
  2062.  
  2063.  
  2064. McCoy                                                          [Page 35]
  2065.  
  2066. RFC 1008                                                       June 1987
  2067.  
  2068.  
  2069.    can be considered as typical for ARPANET internetwork operation.
  2070.  
  2071.    The amount of time a TPDU waits in the network receive queue before
  2072.    being processed by the receiving transport is represented by TQ,
  2073.    similar to NQ in that the value of TQ depends upon the size of the
  2074.    queue, the number of TPDUs already in the queue, and the rate at
  2075.    which the queue is emptied by transport.
  2076.  
  2077.    Often the user delay D will be dominated by one of the components. On
  2078.    a satellite channel the principal component of D is PD, which implies
  2079.    that ND is a principal component by equation (2).  On an unloaded
  2080.    LAN, TS and TR might contribute most to D.  On a highly loaded LAN,
  2081.    MA may cause NQ to rise, again implying that ND is a major factor in
  2082.    determining D.
  2083.  
  2084.    Some one-way delay measures have been made by Intel for the iNA-960
  2085.    product running on a 6 MHz 80186.  For an unloaded 10 Mbps CSMA/CD
  2086.    network the Intel measures show delays as low as 22 ms.  The NBS has
  2087.    done some simulations of class 4 transport over 10 Mbps CSMA/CD and
  2088.    token bus networks.  These (unvalidated) predictions show one-way
  2089.    delays as low as 6 ms on unloaded LANs and as high as 372 ms on
  2090.    CSMA/CD LANs with 70% load.
  2091.  
  2092. 3.4.3.3   Response time.
  2093.  
  2094.    Determination of transport user response time (i.e., two-way delay)
  2095.    depends upon many of the same factors discussed above for one-way
  2096.    delay.  In fact, response time can be represented by equation 3 as
  2097.    shown below.
  2098.  
  2099.       R = 2D + AS + AR     (3)
  2100.  
  2101.    where:
  2102.  
  2103.      R is transport user response time,
  2104.  
  2105.      D is one-way transport user delay,
  2106.  
  2107.      AS is acknowledgement send processing time, and
  2108.  
  2109.      AR is acknowledgement receive processing time.
  2110.  
  2111.    D has been explained above.  AS and AR deal with the acknowledgement
  2112.    sent by transport in response to the TPDU that embodies the user
  2113.    request.
  2114.  
  2115.    AS is simply the amount of time that the receiving transport must
  2116.    spend to generate an AK TPDU.  Typical times for this function are
  2117.    about 2 to 3 ms on processors such as the Motorola 68010 and the
  2118.    Intel 80186.  Of course the actual time required depends upon factors
  2119.    such as those explained for TS above.
  2120.  
  2121.  
  2122.  
  2123. McCoy                                                          [Page 36]
  2124.  
  2125. RFC 1008                                                       June 1987
  2126.  
  2127.  
  2128.    The amount of time, AR, that the sending transport must spend to
  2129.    process a received AK TPDU.  Determination of the actual time
  2130.    required depends upon factors previously described.  Note that for AR
  2131.    and AS, processing when the checksum is included takes somewhat
  2132.    longer. However, AK TPDUs are usually between 10 and 20 octets in
  2133.    length and therefore the increased time due to checksum processing is
  2134.    much less than for DT TPDUs.
  2135.  
  2136.    No class 4 transport user response time measures are available;
  2137.    however, some simulations have been done at the NBS.  These
  2138.    predictions are based upon implementation strategies that have been
  2139.    used by commercial vendors in building microprocessor-based class 4
  2140.    transport products.  Average response times of about 21 ms on an
  2141.    unloaded 10 Mbps token bus network, 25 ms with 70% loading, were
  2142.    predicted by the simulations.  On a 10 Mbps CSMA/CD network, the
  2143.    simulations predict response times of about 17 ms for no load and 54
  2144.    ms for a 70% load.
  2145.  
  2146. 3.5   Error and status reporting.
  2147.  
  2148.    Although the abstract service definition for the  transport protocol
  2149.    specifies  a set of services to be offered, the actual set of
  2150.    services  provided  by  an  implementation need  not  be limited to
  2151.    these.  In particular, local status and error information can be
  2152.    provided as a confirmed service (request/response) and as an
  2153.    asynchronous "interrupt" (indication).  One use for this service  is
  2154.    to  allow  users  to query the transport entity about the status of
  2155.    their connections.  An example of information  that  could  be
  2156.    returned from the entity is:
  2157.  
  2158.         o  connection state
  2159.         o  current send sequence number
  2160.         o  current receive and transmit credit windows
  2161.         o  transport/network interface status
  2162.         o  number of retransmissions
  2163.         o  number of DTs and AKs sent and received
  2164.         o  current timer values
  2165.  
  2166.    Another use for the local status and error reporting service is  for
  2167.    administration  purposes.   Using  the  service, an administrator can
  2168.    gather information such as described above for  each open connection.
  2169.    In addition, statistics concerning the transport entity as a whole
  2170.    can be obtained, such as number of transport connections open,
  2171.    average number of connections open over a  given  reporting  period,
  2172.    buffer  use statistics, and total number of retransmitted DT TPDUs.
  2173.    The administrator might also be given the  authority  to  cancel
  2174.    connections,  restart  the  entity,  or  manually  set timer values.
  2175.  
  2176.  
  2177.  
  2178.  
  2179.  
  2180.  
  2181.  
  2182. McCoy                                                          [Page 37]
  2183.  
  2184. RFC 1008                                                       June 1987
  2185.  
  2186.  
  2187. 4   Entity resource management.
  2188.  
  2189. 4.1   CPU management.
  2190.  
  2191.    The formal description has implicit scheduling of TPM modules, due to
  2192.    the semantics of the Estelle structuring principles.  However, the
  2193.    implementor should not depend on this scheduling to obtain optimal
  2194.    behavior, since, as stated in Part 1, the structures in the formal
  2195.    description were imposed for purposes other than operational
  2196.    efficiency.
  2197.  
  2198.    Whether by design or by default,  every  implementation of the
  2199.    transport protocol embodies some decision about allocating the CPU
  2200.    resource among transport connections.   The resource may be
  2201.    monolithic, i.e. a single CPU, or it may be distributed, as in the
  2202.    example design given in Part 2.3.  In the former, there are  two
  2203.    simple techniques  for apportioning CPU processing time  among
  2204.    transport  connections.   The first of these,
  2205.    first-come/first-served, consists of the transport entity handling
  2206.    user service requests in the order in which they arrive.  No
  2207.    attempt  is  made  to  prevent one transport connection from using
  2208.    an inordinate amount of the CPU.
  2209.  
  2210.    The second simple technique is  round-robin  scheduling of
  2211.    connections.   Under this method, each transport connection is
  2212.    serviced in turn.  For  each  connection,  transport processes one
  2213.    user service request, if there is one present at the interface,
  2214.    before proceeding to the next connection.
  2215.  
  2216.    The quality of service parameters provided in the connection request
  2217.    can be used to provide a finer-grained strategy for managing the CPU.
  2218.    The CPU could be allocated to connections requiring low delay more
  2219.    often while those requiring high throughput would be served less
  2220.    often but for longer periods (i.e., several connections requiring
  2221.    high throughput might be serviced in a concurrent cluster).
  2222.  
  2223.    For example, in the service sequence below, let "T" represent
  2224.    m > 0 service requests, each requiring high throughput, let "D"
  2225.    represent one service request requiring low delay and let the suffix
  2226.    n = 1,2,3 represent a connection identifier, unique only within a
  2227.    particular service requirement type (T,D).  Thus T1 represents a set
  2228.    of service requests for connection 1 of the service requirement type
  2229.    T, and D1 represents a service set (with one member) for connection 1
  2230.    of service requirement type D.
  2231.  
  2232.    D1___D2___D3___T1___D1___D2___D3___T2___D1___D2___D3___T1...
  2233.  
  2234.  
  2235.    If m = 4 in this service sequence, then service set D1 will get
  2236.    worst-case service once every seventh service request processed.
  2237.    Service set T1 receives service on its four requests only once in
  2238.  
  2239.  
  2240.  
  2241. McCoy                                                          [Page 38]
  2242.  
  2243. RFC 1008                                                       June 1987
  2244.  
  2245.  
  2246.    fourteen requests processed.
  2247.  
  2248.    D1___D2___D3___T1___D1___D2___D3___T2___D1___D2___D3___T1...
  2249.    |              |    |              |    |              |
  2250.    |  3 requests  |  4 |       3      |  4 |       3      |
  2251.  
  2252.    This means that the CPU is allocated to T1 29% ( 4/14 ) of the
  2253.    available time, whereas D1 obtains service 14% ( 1/7 ) of the time,
  2254.    assuming processing requirements for all service requests to be
  2255.    equal.  Now assume that, on average, there is a service request
  2256.    arriving for one out of three of the service requirement type D
  2257.    connections.  The CPU is then allocated to the T type 40% ( 4/10 )
  2258.    while the D type is allocated 10% ( 1/10 ).
  2259.  
  2260. 4.2   Buffer management.
  2261.  
  2262.    Buffers are used as temporary storage areas for data on its  way to
  2263.    or arriving from the network.  Decisions must be made about buffer
  2264.    management in two areas.  The first is the overall  strategy  for
  2265.    managing  buffers in a multi-layered protocol environment.  The
  2266.    second  is  specifically  how  to allocate buffers within the
  2267.    transport entity.
  2268.  
  2269.    In the formal description no details of buffer strategy are given,
  2270.    since such strategy depends so heavily on the implementation
  2271.    environment.  Only a general mechanism is discussed in the formal
  2272.    description for allocating receive credit to a transport connection,
  2273.    without any expression as to how this resource is managed.
  2274.  
  2275.    Good buffer management should correlate to the traffic presented by
  2276.    the applications using the transport service.  This traffic has
  2277.    implications as well for the performance of the protocol. At present,
  2278.    the relationship of buffer strategy to optimal service for a given
  2279.    traffic distribution is not well understood.  Some work has been
  2280.    done, however, and the reader is referred to the work of Jeffery
  2281.    Spirn [SPI82, SPI83] and to the experiment plan for research by the
  2282.    NBS [HEA85] on the effect of application traffic patterns on the
  2283.    performance of Class 4 transport.
  2284.  
  2285. 4.2.1   Overall buffer strategy.
  2286.  
  2287.    Three schemes for management of  buffers  in  a  multilayered
  2288.    environment  are described here.  These represent a spectrum of
  2289.    possibilities available to the implementor.  The first  of these is a
  2290.    strictly layered approach in which each entity in the protocol
  2291.    hierarchy, as a process, manages its own pool of buffers
  2292.    independently  of  entities  at  other layers.  One advantage of this
  2293.    approach  is  simplicity;   it is not necessary for an entity  to
  2294.    coordinate  buffer  usage with a resource manager which is serving
  2295.    the needs of numerous  protocol entities.  Another advantage is
  2296.    modularity.  The interface presented to entities in other layers is
  2297.  
  2298.  
  2299.  
  2300. McCoy                                                          [Page 39]
  2301.  
  2302. RFC 1008                                                       June 1987
  2303.  
  2304.  
  2305.    well  defined; protocol  service  requests and responses are passed
  2306.    between layers by value (copying) versus by reference (pointer
  2307.    copying). In particular, this is a strict interpretation of the OSI
  2308.    reference model, IS 7498 [ISO84b], and the protocol entities hide
  2309.    message details from each other, simplifying handling at the entity
  2310.    interfaces.
  2311.  
  2312.    The single disadvantage to a  strictly  layered  scheme derives  from
  2313.    the  value-passing  nature  of the interface.  Each time protocol
  2314.    data and control  information  is  passed from  one layer to another
  2315.    it must be copied from one layer's buffers to those of another layer.
  2316.    Copying  between  layers in  a  multi-layered  environment is
  2317.    expensive and imposes a severe penalty on the performance of the
  2318.    communications system, as  well as the computer system on which it is
  2319.    running as a whole.
  2320.  
  2321.    The second scheme for managing buffers  among  multiple protocol
  2322.    layers  is  buffer  sharing.   In  this  approach, buffers are a
  2323.    shared resource among multiple protocol  entities; protocol data and
  2324.    control information contained in the buffers is exchanged by passing
  2325.    a buffer pointer, or  reference, rather  than  the  values  as in the
  2326.    strictly layered approach  described  above.   The  advantage  to
  2327.    passing buffers by reference is that only a small amount of
  2328.    information, the buffer pointer, is copied  from  layer  to  layer.
  2329.    The  resulting  performance  is much better than that of the strictly
  2330.    layered approach.
  2331.  
  2332.    There are several requirements  that  must  be  met  to implement
  2333.    buffer sharing.  First, the host system architecture must allow
  2334.    memory sharing among protocol entities  that are  sharing the
  2335.    buffers.  This can be achieved in a variety of ways:  multiple
  2336.    protocol entities may be  implemented  as one  process, all sharing
  2337.    the same process space (e.g., kernel space),  or  the  host  system
  2338.    architecture  may  allow processes  to  map portions of their address
  2339.    space to common buffer areas at some known location in physical
  2340.    memory.
  2341.  
  2342.    A buffer manager is another requirement for implementing shared
  2343.    buffers.  The buffer manager has the responsibility of providing
  2344.    buffers  to  protocol entities when needed from a list of free
  2345.    buffers and recycling used buffers  back into  the  free  list. The
  2346.    pool may consist of one or more lists, depending on the level of
  2347.    control desired.  For example, there  could be separate lists of
  2348.    buffers for outgoing and incoming messages.
  2349.  
  2350.    The protocol entities must be implemented in such a way as to
  2351.    cooperate with the buffer manager.  While this appears to be an
  2352.    obvious condition, it has important implications for the strategy
  2353.    used by implementors to develop the communications system.  This
  2354.    cooperation can be described as follows:  an entity at layer N
  2355.    requests and is allocated a buffer by the manager; each such buffer
  2356.  
  2357.  
  2358.  
  2359. McCoy                                                          [Page 40]
  2360.  
  2361. RFC 1008                                                       June 1987
  2362.  
  2363.  
  2364.    is returned to the manager by some entity at layer N - k (outgoing
  2365.    data) or N + k (incoming data).
  2366.  
  2367.    Protocol  entities also must be designed to cooperate with each
  2368.    other.  As buffers are allocated and sent towards the  network  from
  2369.    higher  layers, allowance must be made for protocol control
  2370.    information to be added at lower layers.  This usually means
  2371.    allocating  oversized buffers to allow space for headers to be
  2372.    prepended at lower layers.  Similarly, as buffers move upward from
  2373.    the network, each protocol entity processes its headers before
  2374.    passing the buffer on.  These  manipulations  can  be handled by
  2375.    managing pointers into the buffer header space.
  2376.  
  2377.    In their pure forms, both strictly layered  and  shared buffer
  2378.    schemes are not practical.  In the former, there is a performance
  2379.    penalty for copying buffers.  On the other hand, it  is not practical
  2380.    to implement buffers that are shared by entities in all layers of the
  2381.    protocol hierarchy: the  lower protocol layers (OSI layers 1 - 4)
  2382.    have essentially static buffer requirements, whereas the upper
  2383.    protocol layers (OSI layers 5 - 7) tend to be dynamic in their buffer
  2384.    requirements.  That is, several different applications may be running
  2385.    concurrently, with buffer requirements varying as the set of
  2386.    applications varies.  However, at the transport layer, this latter
  2387.    variation is not visible and variations in buffer requirements will
  2388.    depend more on service quality considerations than on the specific
  2389.    nature of the applications being served.  This suggests a hybrid
  2390.    scheme in which the entities in OSI layers 1 - 4 share buffers while
  2391.    the entities in each of the OSI layers 5 - 7 share in a buffer pool
  2392.    associated with each layer.  This approach provides most of the
  2393.    efficiency of a pure shared buffer scheme and allows for simple,
  2394.    modular interfaces where they are most appropriate.
  2395.  
  2396. 4.2.2   Buffer management in the transport entity.
  2397.  
  2398.    Buffers are allocated in the transport entity  for  two purposes:
  2399.    sending and receiving data.  For sending data, the decision of how
  2400.    much buffer space to allocate is  relatively simple;  enough  space
  2401.    should be allocated for outgoing data to hold the maximum number of
  2402.    data messages that the  entity will have outstanding (i.e., sent but
  2403.    unacknowledged) at any time.  The send buffer space is determined  by
  2404.    one  of  two values,  whichever  is lower:  the send credit received
  2405.    from the receiving transport entity, or a maximum  value  imposed by
  2406.    the  local  implementation,  based  on  such  factors as overall
  2407.    buffer capacity.
  2408.  
  2409.    The allocation of receive buffers is a more interesting problem
  2410.    because  it is directly related to the credit value transmitted the
  2411.    peer transport entity in CR (or CC) and AK TPDUs.  If the total
  2412.    credit offered to the peer entity exceeds the total available buffer
  2413.    space and credit reduction  is  not  implemented, deadlock  may
  2414.    occur, causing termination of one or more transport connections.  For
  2415.  
  2416.  
  2417.  
  2418. McCoy                                                          [Page 41]
  2419.  
  2420. RFC 1008                                                       June 1987
  2421.  
  2422.  
  2423.    the purposes of  this discussion,  offered  credit  is assumed to be
  2424.    equivalent to available buffer space.
  2425.  
  2426.    The simplest scheme for receive buffer  allocation  is allocation of
  2427.    a fixed amount per transport connection.  This amount is allocated
  2428.    regardless of how the connection  is  to be  used.   This  scheme is
  2429.    fair in that all connections are treated equally.  The implementation
  2430.    approach in Part 2.3, in which each transport connection is handled
  2431.    by a physically separate processor, obviously could use this scheme,
  2432.    since the allocation would be in the form of memory chips assigned by
  2433.    the system designer when the system is built.
  2434.  
  2435.    A more flexible method  of  allocating  receive  buffer space  is
  2436.    based  on the connection quality of service (QOS) requested by the
  2437.    user.  For instance, a QOS indicating  high throughput would be given
  2438.    more send and receive buffer space than one a QOS indicating low
  2439.    delay.  Similarly, connection priority can  be  used  to  determine
  2440.    send and receive buffer allocation, with important (i.e., high
  2441.    priority) connections  allocated  more buffer space.
  2442.  
  2443.    A slightly more complex scheme is to apportion send and receive
  2444.    buffer  space using both QOS and priority.  For each connection, QOS
  2445.    indicates a general category of  operation  (e.g., high throughput or
  2446.    low delay).  Within the general category, priority determines the
  2447.    specific  amount  of  buffer  space allocated  from  a range of
  2448.    possible values.  The general categories may well overlap, resulting,
  2449.    for example, in a high priority connection with low throughput
  2450.    requirements being allocated more buffer space than low priority
  2451.    connection requiring a high throughput.
  2452.  
  2453. 5   Management of Transport service endpoints.
  2454.  
  2455.    As mentioned in Part 1.2.1.1, a transport entity needs some way of
  2456.    referencing a transport connection endpoint within the end system: a
  2457.    TCEP_id.  There are several factors influencing the management of
  2458.    TCEP_ids:
  2459.  
  2460.     1)  IPC mechanism between the transport entity and the session
  2461.         entity (Part 3.3);
  2462.  
  2463.     2)  transport entity resources and resource management (Part 4);
  2464.  
  2465.     3)  number of distinct TSAPs supported by the entity (Part 1.2.2.1);
  2466.         and
  2467.  
  2468.     4)  user process rendezvous mechanism (the means by which session
  2469.         processes identify themselves to the transport entity, at a
  2470.         given TSAP, for association with a transport connection);
  2471.  
  2472.    The IPC mechanism and the user process rendezvous mechanism have more
  2473.    direct influence than the other two factors on how the TCEP_id
  2474.  
  2475.  
  2476.  
  2477. McCoy                                                          [Page 42]
  2478.  
  2479. RFC 1008                                                       June 1987
  2480.  
  2481.  
  2482.    management is implemented.
  2483.  
  2484.    The number of TCEP_ids available should reflect the resources that
  2485.    are available to the transport entity, since each TCEP_id in use
  2486.    represents a potential transport connection.  The formal description
  2487.    assumes that there is a function in the TPE which can decide, on the
  2488.    basis of current resource availability, whether or not to issue a
  2489.    TCEP_id for any connection request received.  If the TCEP_id is
  2490.    issued, then resources are allocated for the connection endpoint.
  2491.    However, there is a somewhat different problem for the users of
  2492.    transport.  Here, the transport entity must somehow inform the
  2493.    session entity as to the TCEP_ids available at a given TSAP.
  2494.  
  2495.    In the formal description, a T-CONNECT-request is permitted to enter
  2496.    at any TSAP/TCEP_id.  A function in the TPE considers whether or not
  2497.    resources are availble to support the requested connection.  There is
  2498.    also a function which checks to see if a TSAP/TCEP_id is busy by
  2499.    seeing if there is a TPM allocated to it.  But this function is not
  2500.    useful to the session entity which does not have access to the
  2501.    transport entity's operations.  This description of the procedure is
  2502.    clearly too loose for an implementation.
  2503.  
  2504.    One solution to this problem is to provide a new (abstract) service,
  2505.    T-REGISTER, locally, at the interface between transport and session.
  2506.  
  2507.    ___________________________________________________________________
  2508.    |           Primitives                       Parameters           |
  2509.    |_________________________________________________________________|
  2510.    |  T-REGISTER        request     |  Session process  identifier   |
  2511.    |________________________________|________________________________|
  2512.    |  T-REGISTER        indication  |  Transport endpoint identifier,|
  2513.    |                                |  Session process  identifier   |
  2514.    |________________________________|________________________________|
  2515.    |  T-REGISTER        refusal     |  Session process  identifier   |
  2516.    |________________________________|________________________________|
  2517.  
  2518.    This service is used as follows:
  2519.  
  2520.  
  2521.      1)   A session process is identified to the transport entity by a
  2522.           T-REGISTER-request event.  If a TCEP_id is available,  the
  2523.           transport entity selects a TCEP_id and places it into a table
  2524.           corresponding to the TSAP at which the T-REGISTER-request
  2525.           event occurred, along with the session process identifier. The
  2526.           TCEP_id and the session process identifier are then
  2527.           transmitted to the session entity by means of the T-REGISTER-
  2528.           indication event. If no TCEP_id is available, then a T-
  2529.           REGISTER-refusal event carrying the session process identifier
  2530.           is returned.  At any time that an assigned TCEP_id is not
  2531.           associated with an active transport connection process
  2532.           (allocated TPM), the transport entity can issue a T-REGISTER-
  2533.  
  2534.  
  2535.  
  2536. McCoy                                                          [Page 43]
  2537.  
  2538. RFC 1008                                                       June 1987
  2539.  
  2540.  
  2541.           refusal to the session entity to indicate, for example, that
  2542.           resources are no longer available to support a connection,
  2543.           since TC resources are not allocated at registration time.
  2544.  
  2545.  
  2546.      2)   If the session entity is to initiate the transport connection,
  2547.           it issues a T-CONNECT-request with the TCEP_id as a parameter.
  2548.           (Note that this procedure is at a slight variance to the
  2549.           procedure in N3756, which specifies no such parameter, due to
  2550.           the requirement of alignment of the formal description with
  2551.           the service description of transport and the definition of the
  2552.           session protocol.) If the session entity is expecting a
  2553.           connection request from a remote peer at this TSAP, then the
  2554.           transport does nothing with the TCEP_id until a CR TPDU
  2555.           addressed to the TSAP arrives.  When such a CR TPDU arrives,
  2556.           the transport entity issues a T-CONNECT-indication to the
  2557.           session entity with a TCEP_id as a parameter.  As a management
  2558.           aid, the table entry for the TCEP_id can be marked "busy" when
  2559.           the TCEP_id is associated with an allocated TPM.
  2560.  
  2561.  
  2562.      3)   If a CR TPDU is received and no TCEP_id is in the table for
  2563.           the TSAP addressed, then the transport selects a TCEP_id,
  2564.           includes it as a parameter in the T-CONNECT-indication sent to
  2565.           the session entity, and places it in the table. The T-
  2566.           CONNECT-response returned by the session entity will carry the
  2567.           TCEP_id and the session process identifier.  If the session
  2568.           process identifier is already in the table, the new one is
  2569.           discarded; otherwise it is placed into the table. This
  2570.           procedure is also followed if the table has entries but they
  2571.           are all marked busy or are empty.  If the table is full and
  2572.           all entries ar marked busy, then the transport entity
  2573.           transmits a DR TPDU to the peer transport entity to indicate
  2574.           that the connection cannot be made.  Note that the transport
  2575.           entity can disable a TSAP by marking all its table entries
  2576.           busy.
  2577.  
  2578.  
  2579.    The realization of the T-REGISTER service will depend on the IPC
  2580.    mechanisms available between the transport and session entities. The
  2581.    problem of user process rendezvous is solved in general by the T-
  2582.    REGISTER service, which is based on a solution proposed by Michael
  2583.    Chernik of the NBS [CHK85].
  2584.  
  2585. 6   Management of Network service endpoints in Transport.
  2586.  
  2587. 6.1   Endpoint identification.
  2588.  
  2589.    The identification of endpoints at an NSAP is different from that for
  2590.    the TSAP.  The nature of the services at distinct TSAPs is
  2591.    fundamentally the same, although the quality could vary, as a local
  2592.  
  2593.  
  2594.  
  2595. McCoy                                                          [Page 44]
  2596.  
  2597. RFC 1008                                                       June 1987
  2598.  
  2599.  
  2600.    choice.  However, it is possible for distinct NSAPs to represent
  2601.    access to essentially different network services.  For example, one
  2602.    NSAP may provide access to a connectionless network service by means
  2603.    of an internetwork protocol.  Another NSAP may provide access to a
  2604.    connection-oriented service, for use in communicating on a local
  2605.    subnetwork.  It is also possible to have several distinct NSAPs on
  2606.    the same subnetwork, each of which provides some service features of
  2607.    local interest that distinguishes it from the other NSAPs.
  2608.  
  2609.    A transport entity accessing an X.25 service could use the logical
  2610.    channel numbers for the virtual circuits as NCEP_ids.  An NSAP
  2611.    providing access only to a permanent virtual circuit would need only
  2612.    a single NCEP_id to multiplex the transport connections.  Similarly,
  2613.    a CSMA/CD network would need only a single NCEP_id, although the
  2614.    network is connectionless.
  2615.  
  2616. 6.2   Management issues.
  2617.  
  2618.    The Class 4 transport protocol has been succesfully operated over
  2619.    both connectionless and connection-oriented network services.  In
  2620.    both modes of operation there exists some information about the
  2621.    network service that a transport implementation could make use of to
  2622.    enhance performance.  For example, knowledge of expected delay to a
  2623.    destination would permit optimal selection of retransmission timer
  2624.    value for a connection instance.  The information that transport
  2625.    implementations could use and the mechanisms for obtaining and
  2626.    managing that information are, as a group, not well understood.
  2627.    Projects are underway within ISO committees to address the management
  2628.    of OSI as an architecture and the management of the transport layer
  2629.    as a layer.
  2630.  
  2631.    For operation of the Class 4 transport protocol over
  2632.    connection-oriented network service several issues must be addressed
  2633.    including:
  2634.  
  2635.  
  2636.      a.   When should a new network connection be opened to support a
  2637.           transport connection (versus multiplexing)?
  2638.  
  2639.      b.   When a network connection is no longer being used by any
  2640.           transport connection, should the network connection be closed
  2641.           or remain open awaiting a new transport connection?
  2642.  
  2643.      c.   When a network connection is aborted, how should the peer
  2644.           transport entities that were using the connection cooperate to
  2645.           re-establish it?  If splitting is not to be used, how can this
  2646.           re-establishment be achieved such that one and only one
  2647.           network connection results?
  2648.  
  2649.    The Class 4 transport specification permits a transport entity to
  2650.    multiplex several transport connections (TCs) over a single network
  2651.  
  2652.  
  2653.  
  2654. McCoy                                                          [Page 45]
  2655.  
  2656. RFC 1008                                                       June 1987
  2657.  
  2658.  
  2659.    connection (NC) and to split a single TC across several NCs.  The
  2660.    implementor must decide whether to support these options and, if so,
  2661.    how.  Even when the implementor decides never to initiate splitting
  2662.    or multiplexing the transport entity must be prepared to accept this
  2663.    behavior from other transport implementations.  When multiplexing is
  2664.    used TPDUs from multiple TCs can be concatenated into a single
  2665.    network service data unit (NSDU).  Therefore, damage to an NSDU may
  2666.    effect several TCs.  In general, Class 2 connections should not be
  2667.    multiplexed with Class 4 connections.  The reason for this is that if
  2668.    the error rate on the network connection is high enough that the
  2669.    error recovery capability of Class 4 is needed, then it is too high
  2670.    for Class 2 operation.  The deciding criterion is the tolerance of
  2671.    the user for frequent disconnection and data errors.
  2672.  
  2673.    Several issues in splitting must be considered:
  2674.  
  2675.     1) maximum number of NCs that can be assigned to a given TC;
  2676.  
  2677.     2) minimum number of NCs required by a TC to maintain the "quality
  2678.        of service" expected (default of 1);
  2679.  
  2680.     3) when to split;
  2681.  
  2682.     4) inactivity control;
  2683.  
  2684.     5) assignment of received TPDU to TC; and
  2685.  
  2686.     6) notification to TC of NC status (assigned, dissociated, etc ).
  2687.  
  2688.    All of these except 3) are covered in the formal description.  The
  2689.    methods used in the formal description need not be used explicitly,
  2690.    but they suggest approaches to implementation.
  2691.  
  2692.    To support the possibility of multiplexing and splitting the
  2693.    implementor must provide a common function below the TC state
  2694.    machines that maps a set of TCs to a set of NCs.  The formal
  2695.    description provides a general means of doing this, requiring mainly
  2696.    implementation environment details to complete the mechanism.
  2697.    Decisions about when network connections are to be opened or closed
  2698.    can be made locally using local decision criteria.  Factors that may
  2699.    effect the decision include costs of establishing an NC, costs of
  2700.    maintaining an open NC with little traffic flowing, and estimates of
  2701.    the probability of data flow between the source node and known
  2702.    destinations.  Management of this type is feasible when a priori
  2703.    knowledge exists but is very difficult when a need exists to adapt to
  2704.    dynamic traffic patterns and/or fluctuating network charging
  2705.    mechanisms.
  2706.  
  2707.    To handle the issue of re-establishment of the NC after failure, the
  2708.    ISO has proposed an addendum N3279 [ISO85c] to the basic transport
  2709.    standard describing a network connection management subprotocol
  2710.  
  2711.  
  2712.  
  2713. McCoy                                                          [Page 46]
  2714.  
  2715. RFC 1008                                                       June 1987
  2716.  
  2717.  
  2718.    (NCMS) to be used in conjunction with the transport protocol.
  2719.  
  2720. 7   Enhanced checksum algorithm.
  2721.  
  2722. 7.1   Effect of checksum on transport performance.
  2723.  
  2724.    Performance experiments with Class 4 transport at the NBS have
  2725.    revealed that straightforward implementation of the Fletcher checksum
  2726.    using the algorithm recommended in the ISO transport standard leads
  2727.    to severe reduction of transport throughput.  Early modeling
  2728.    indicated throughput drops of as much as 66% when using the checksum.
  2729.    Work by Anastase Nakassis [NAK85] of the NBS led to several improved
  2730.    implementations.  The performance degradation due to checksum is now
  2731.    in the range of 40-55%, when using the improved implementations.
  2732.  
  2733.    It is possible that transport may be used over a network that does
  2734.    not provide error detection.  In such a case the transport checksum
  2735.    is necessary to ensure data integrity. In many instances, the
  2736.    underlying subnetwork provides some error checking mechanism.  The
  2737.    HDLC frame check sequence as used by X.25, IEEE 802.3 and 802.4 rely
  2738.    on a 32 bit cyclic redundancy check and satellite link hardware
  2739.    frequently provides the HDLC frame check sequence.  However, these
  2740.    are all link or physical layer error detection mechanisms which
  2741.    operate only point-to-point and not end-to-end as the transport
  2742.    checksum does.  Some links provide error recovery while other links
  2743.    simply discard damaged messages.  If adequate error recovery is
  2744.    provided, then the transport checksum is extra overhead, since
  2745.    transport will detect when the link mechanism has discarded a message
  2746.    and will retransmit the message.  Even when the IP fragments the
  2747.    TPDU, the receiving IP will discover a hole in the reassembly buffer
  2748.    and discard the partially assembled datagram (i.e., TPDU).  Transport
  2749.    will detect this missing TPDU and recover by means of the
  2750.    retransmission mechanism.
  2751.  
  2752. 7.2   Enhanced algorithm.
  2753.  
  2754.    The Fletcher checksum algorithm given in an annex to IS 8073 is not
  2755.    part of the standard, and is included in the annex as a suggestion to
  2756.    implementors.  This was done so that as improvements or new
  2757.    algorithms came along, they could be incorporated without the
  2758.    necessity to change the standard.
  2759.  
  2760.    Nakassis has provided three ways of coding the algorithm, shown
  2761.    below, to provide implementors with insight rather than universally
  2762.    transportable code.  One version uses a high order language (C).  A
  2763.    second version uses C and VAX assembler, while a third uses only VAX
  2764.    assembler.  In all the versions, the constant MODX appears.  This
  2765.    represents the maximum number of sums that can be taken without
  2766.    experiencing overflow.  This constant depends on the processor's word
  2767.    size and the arithmetic mode, as follows:
  2768.  
  2769.  
  2770.  
  2771.  
  2772. McCoy                                                          [Page 47]
  2773.  
  2774. RFC 1008                                                       June 1987
  2775.  
  2776.  
  2777.     Choose n such that
  2778.  
  2779.      (n+1)*(254 + 255*n/2) <= 2**N - 1
  2780.  
  2781.  
  2782.    where N is the number of usable bits for signed (unsigned)
  2783.    arithmetic.  Nakassis shows [NAK85] that it is sufficient
  2784.    to take
  2785.  
  2786.  
  2787.  
  2788.      n <= sqrt( 2*(2**N - 1)/255 )
  2789.  
  2790.  
  2791.    and that n = sqrt( 2*(2**N - 1)/255 ) - 2 generally yields
  2792.    usable values.  The constant MODX then is taken to be n.
  2793.  
  2794.  
  2795.    Some typical values for MODX are given in the following table.
  2796.  
  2797.  
  2798.     BITS/WORD                MODX          ARITHMETIC
  2799.         15                     14             signed
  2800.         16                     21           unsigned
  2801.         31                   4102             signed
  2802.         32                   5802           unsigned
  2803.  
  2804.    This constant is used to reduce the number of times mod 255 addition
  2805.    is invoked, by way of speeding up the algorithm.
  2806.  
  2807.    It should be noted that it is also possible to implement the checksum
  2808.    in separate hardware.  However, because of the placement of the
  2809.    checksum within the TPDU header rather than at the end of the TPDU,
  2810.    implementing this with registers and an adder will require
  2811.    significant associated logic to access and process each octet of the
  2812.    TPDU and to move the checksum octets in to the proper positions in the
  2813.    TPDU. An alternative to designing this supporting logic is to use a
  2814.    fast, microcoded 8-bit CPU to handle this access and the computation.
  2815.    Although there is some speed penalty over separate logic, savings
  2816.    may be realized through a reduced chip count and development time.
  2817.  
  2818. 7.2.1   C language algorithm.
  2819.  
  2820.    #define MODX 4102
  2821.  
  2822.  
  2823.      encodecc( mess,len,k )
  2824.      unsigned char mess[] ;    /* the TPDU to be checksummed */
  2825.      int      len,
  2826.               k;               /* position of first checksum octet
  2827.                                   as an offset from mess[0]  */
  2828.  
  2829.  
  2830.  
  2831. McCoy                                                          [Page 48]
  2832.  
  2833. RFC 1008                                                       June 1987
  2834.  
  2835.  
  2836.      { int ip,
  2837.            iq,
  2838.            ir,
  2839.            c0,
  2840.            c1;
  2841.        unsigned char *p,*p1,*p2,*p3 ;
  2842.  
  2843.        p = mess ; p3 = mess + len ;
  2844.  
  2845.        if ( k > 0) { mess[k-1] = 0x00 ; mess[k] = 0x00 ; }
  2846.             /* insert zeros for checksum octets */
  2847.  
  2848.        c0 = 0 ; c1 = 0  ; p1 = mess ;
  2849.        while (p1 < p3)    /* outer sum accumulation loop */
  2850.        {
  2851.         p2 = p1 + MODX ; if (p2 > p3) p2 = p3 ;
  2852.         for (p = p1 ; p < p2 ; p++) /*  inner sum accumulation loop */
  2853.         { c0 = c0 + (*p) ; c1 = c1 + c0 ;
  2854.         }
  2855.         c0 = c0%255 ; c1 = c1%255 ; p1 = p2 ;
  2856.             /* adjust accumulated sums to mod 255 */
  2857.         }
  2858.         ip = (c1 << 8) + c0 ;     /* concatenate c1 and c0 */
  2859.  
  2860.         if (k > 0)
  2861.         {     /* compute and insert checksum octets */
  2862.  
  2863.          iq = ((len-k)*c0 - c1)%255 ; if (iq <= 0) iq = iq + 255 ;
  2864.          mess[k-1] = iq ;
  2865.          ir = (510 - c0 - iq) ;
  2866.          if (ir > 255) ir = ir - 255 ; mess[k] = ir ;
  2867.        }
  2868.        return(ip) ;
  2869.      }
  2870.  
  2871. 7.2.2   C/assembler algorithm.
  2872.  
  2873.    #include <math>
  2874.  
  2875.      encodecm(mess,len,k)
  2876.      unsigned char *mess ;
  2877.      int      len,k      ;
  2878.      {
  2879.        int i,ip,c0,c1 ;
  2880.  
  2881.        if (k > 0) { mess[k-1] = 0x00 ; mess[k] = 0x00 ; }
  2882.        ip = optm1(mess,len,&c0,&c1) ;
  2883.        if (k > 0)
  2884.        { i = ( (len-k)*c0 - c1)%255 ; if (i <= 0) i = i + 255 ;
  2885.          mess[k-1] = i ;
  2886.          i = (510 - c0 - i) ; if (i > 255) i = i - 255 ;
  2887.  
  2888.  
  2889.  
  2890. McCoy                                                          [Page 49]
  2891.  
  2892. RFC 1008                                                       June 1987
  2893.  
  2894.  
  2895.          mess[k] = i ;
  2896.        }
  2897.        return(ip) ;
  2898.      }
  2899.     ;       calling sequence optm(message,length,&c0,&c1) where
  2900.     ;       message is an array of bytes
  2901.     ;       length   is the length of the array
  2902.     ;       &c0 and &c1 are the addresses of the counters to hold the
  2903.     ;       remainder of; the first and second order partial sums
  2904.     ;       mod(255).
  2905.  
  2906.             .ENTRY   optm1,^M<r2,r3,r4,r5,r6,r7,r8,r9,r10,r11>
  2907.             movl     4(ap),r8      ; r8---> message
  2908.             movl     8(ap),r9      ; r9=length
  2909.             clrq     r4            ; r5=r4=0
  2910.             clrq     r6            ; r7=r6=0
  2911.             clrl     r3            ; clear high order bytes of r3
  2912.             movl     #255,r10      ; r10 holds the value 255
  2913.             movl     #4102,r11     ; r11= MODX
  2914.     xloop:  movl     r11,r7        ; if r7=MODX
  2915.             cmpl     r9,r7         ; is r9>=r7 ?
  2916.             bgeq     yloop         ; if yes, go and execute the inner
  2917.                                    ; loop MODX times.
  2918.             movl     r9,r7         ; otherwise set r7, the inner loop
  2919.                                    ; counter,
  2920.     yloop:  movb     (r8)+,r3      ;
  2921.             addl2    r3,r4         ; sum1=sum1+byte
  2922.             addl2    r4,r6         ; sum2=sum2+sum1
  2923.             sobgtr   r7,yloop      ; while r7>0 return to iloop
  2924.                               ; for mod 255 addition
  2925.       ediv     r10,r6,r0,r6  ; r6=remainder
  2926.       ediv     r10,r4,r0,r4  ;
  2927.       subl2    r11,r9        ; adjust r9
  2928.       bgtr     xloop         ; go for another loop if necessary
  2929.       movl     r4,@12(ap)    ; first argument
  2930.       movl     r6,@16(ap)    ; second argument
  2931.       ashl     #8,r6,r0      ;
  2932.       addl2    r4,r0         ;
  2933.       ret
  2934.  
  2935. 7.2.3  Assembler algorithm.
  2936.  
  2937.    buff0:  .blkb   3              ; allocate 3 bytes so that aloop is
  2938.                           ; optimally aligned
  2939.    ;       macro implementation of Fletcher's algorithm.
  2940.    ;       calling sequence ip=encodemm(message,length,k) where
  2941.    ;       message is an array of bytes
  2942.    ;       length   is the length of the array
  2943.    ;       k        is the location of the check octets if >0,
  2944.    ;                an indication not to encode if 0.
  2945.    ;
  2946.  
  2947.  
  2948.  
  2949. McCoy                                                          [Page 50]
  2950.  
  2951. RFC 1008                                                       June 1987
  2952.  
  2953.  
  2954.    movl     4(ap),r8      ; r8---> message
  2955.    movl     8(ap),r9      ; r9=length
  2956.    clrq     r4            ; r5=r4=0
  2957.    clrq     r6            ; r7=r6=0
  2958.    clrl     r3            ; clear high order bytes of r3
  2959.    movl     #255,r10      ; r10 holds the value 255
  2960.    movl     12(ap),r2     ; r2=k
  2961.    bleq     bloop         ; if r2<=0, we do not encode
  2962.    subl3    r2,r9,r11     ; set r11=L-k
  2963.    addl2    r8,r2         ; r2---> octet k+1
  2964.    clrb     (r2)          ; clear check octet k+1
  2965.    clrb     -(r2)         ; clear check octet k, r2---> octet k.
  2966.    bloop:  movw     #4102,r7   ; set r7 (inner loop counter) = to MODX
  2967.    cmpl     r9,r7         ; if r9>=MODX, then go directly to adjust r9
  2968.    bgeq     aloop         ; and execute the inner loop MODX times.
  2969.    movl     r9,r7         ; otherwise set r7, the inner loop counter,
  2970.                           ; equal to r9, the number of the
  2971.                           ; unprocessed characters
  2972.    aloop:  movb     (r8)+,r3      ;
  2973.    addl2    r3,r4         ; c0=c0+byte
  2974.    addl2    r4,r6         ; sum2=sum2+sum1
  2975.    sobgtr   r7,aloop      ; while r7>0 return to iloop
  2976.                                   ; for mod 255 addition
  2977.    ediv     r10,r6,r0,r6  ; r6=remainder
  2978.    ediv     r10,r4,r0,r4  ;
  2979.    subl2    #4102,r9      ;
  2980.    bgtr     bloop         ; go for another loop if necessary
  2981.    ashl     #8,r6,r0      ; r0=256*r6
  2982.    addl2    r4,r0         ; r0=256*r6+r4
  2983.    cmpl     r2,r7         ; since r7=0, we are checking if r2 is
  2984.    bleq     exit          ; zero or less: if yes we bypass
  2985.                                   ; the encoding.
  2986.    movl     r6,r8         ; r8=c1
  2987.    mull3    r11,r4,r6     ; r6=(L-k)*c0
  2988.    ediv     r10,r6,r7,r6  ; r6 = (L-k)*c0 mod(255)
  2989.    subl2    r8,r6         ; r6= ((L-k)*c0)%255 -c1 and if negative,
  2990.    bgtr     byte1         ; we must
  2991.    addl2    r10,r6        ; add 255
  2992.    byte1:  movb     r6,(r2)+ ; save the octet and let r2---> octet k+1
  2993.    addl2    r6,r4         ; r4=r4+r6=(x+c0)
  2994.    subl3    r4,r10,r4     ; r4=255-(x+c0)
  2995.    bgtr     byte2         ; if >0 r4=octet (k+1)
  2996.    addl2    r10,r4        ; r4=255+r4
  2997.    byte2:  movb     r4,(r2)       ; save y in octet k+1
  2998.    exit:   ret
  2999.  
  3000. 8   Parameter selection.
  3001.  
  3002. 8.1   Connection control.
  3003.  
  3004.    Expressions for timer values used to control the general transport
  3005.  
  3006.  
  3007.  
  3008. McCoy                                                          [Page 51]
  3009.  
  3010. RFC 1008                                                       June 1987
  3011.  
  3012.  
  3013.    connection behavior are given in IS 8073.  However, values for the
  3014.    specific factors in the expressions are not given and the expressions
  3015.    are only estimates.  The derivation of timer values from these
  3016.    expressions is not mandatory in the standard.  The timer value
  3017.    expressions in IS 8073 are for a connection-oriented network service
  3018.    and may not apply to a connectionless network service.
  3019.  
  3020.    The following symbols are used to denote factors contributing to
  3021.    timer values, throughout the remainder of this Part.
  3022.  
  3023.     Elr = expected maximum transit delay, local to remote
  3024.  
  3025.     Erl = expected maximum transit delay, remote to local
  3026.  
  3027.     Ar  = time needed by remote entity to generate an acknowledgement
  3028.  
  3029.     Al  = time needed by local entity to generate an acknowledgement
  3030.  
  3031.     x   = local processing time for an incoming TPDU
  3032.  
  3033.     Mlr = maximum NSDU lifetime, local to remote
  3034.  
  3035.     Mrl = maximum NSDU lifetime, remote to local
  3036.  
  3037.     T1  = bound for maximum time local entity will wait for
  3038.           acknowledgement before retransmitting a TPDU
  3039.  
  3040.     R   = bound for maximum local entity will continue to transmit a
  3041.           TPDU that requires acknowledgment
  3042.  
  3043.     N   = bound for maximum number of times local entity  will transmit
  3044.           a TPDU requiring acknowledgement
  3045.  
  3046.     L   = bound for the maximum time between the transmission of a
  3047.           TPDU and the receipt of any acknowledgment relating to it.
  3048.  
  3049.     I   = bound for the time after which an entity will initiate
  3050.           procedures to terminate a transport connection if a TPDU is
  3051.           not received from the peer entity
  3052.  
  3053.     W   = bound for the maximum time an entity will wait before
  3054.           transmitting up-to-date window information
  3055.  
  3056.    These symbols and their definitions correspond to those given in
  3057.    Clause 12 of IS 8073.
  3058.  
  3059. 8.1.1   Give-up timer.
  3060.  
  3061.    The give-up timer determines the  amount  of  time  the transport
  3062.    entity  will continue to await an acknowledgement (or other
  3063.    appropriate reply) of a transmitted message  after the  message
  3064.  
  3065.  
  3066.  
  3067. McCoy                                                          [Page 52]
  3068.  
  3069. RFC 1008                                                       June 1987
  3070.  
  3071.  
  3072.    has  been  retransmitted the maximum number of times.    The
  3073.    recommendation given in IS 8073 for values of this timer is
  3074.    expressed by
  3075.  
  3076.     T1 + W + Mrl, for DT and ED TPDUs
  3077.  
  3078.     T1 + Mrl, for CR, CC, and DR TPDUs,
  3079.  
  3080.    where
  3081.  
  3082.     T1 = Elr + Erl + Ar + x.
  3083.  
  3084.    However, it should be noted that Ar will not be known for either the
  3085.    CR or the CC TPDU, and that Elr and Erl may vary considerably due to
  3086.    routing in some conectionless network services.  In Part 8.3.1, the
  3087.    determination of values for T1 is discussed in more detail.  Values
  3088.    for Mrl generally are relatively fixed for a given network service.
  3089.    Since Mrl is usually much larger than expected values of T1, a
  3090.    rule-of-thumb for the give-up timer value is 2*Mrl + Al + x for the
  3091.    CR, CC and DR TPDUs and 2*Mrl + W for DT and ED TPDUs.
  3092.  
  3093. 8.1.2   Inactivity timer.
  3094.  
  3095.    This timer measures  the  maximum  time  period  during which a
  3096.    transport connection can be inactive, i.e., the maximum time an
  3097.    entity can wait without receiving incoming messages.  A usable value
  3098.    for the inactivity timer is
  3099.  
  3100.     I = 2*( max( T1,W )*N ).
  3101.  
  3102.    This accounts for the possibility that the remote peer is using a
  3103.    window timer value different from that of the local peer.  Note that
  3104.    an inactivity timer is important for operation over connectionless
  3105.    network services, since the periodic receipt of AK TPDUs is the only
  3106.    way that the local entity can be certain that its peer is still
  3107.    functioning.
  3108.  
  3109. 8.1.3   Window timer.
  3110.  
  3111.    The window timer has two purposes.  It is used to assure that the
  3112.    remote peer entity periodically receives the current state of the
  3113.    local entity's flow control, and it ensures that the remote peer
  3114.    entity is aware that the local entity is still functioning.  The
  3115.    first purpose is necessary to place an upper bound on the time
  3116.    necessary to resynchronize the flow control should an AK TPDU which
  3117.    notifies the remote peer of increases in credit be lost.  The second
  3118.    purpose is necessary to prevent the inactivity timer of the remote
  3119.    peerfrom expiring.  The value for the window timer, W, depends on
  3120.    several factors, among which are the transit delay, the
  3121.    acknowledgement strategy, and the probability of TPDU loss in the
  3122.    network.  Generally, W should satisfy the following condition:
  3123.  
  3124.  
  3125.  
  3126. McCoy                                                          [Page 53]
  3127.  
  3128. RFC 1008                                                       June 1987
  3129.  
  3130.  
  3131.      W > C*(Erl + x)
  3132.  
  3133.    where C is the maximum amount of credit offered.  The rationale for
  3134.    this condition is that the right-hand side represents the maximum
  3135.    time for receiving the entire window.  The protocol requires that all
  3136.    data received be acknowledged when the upper edge of the window is
  3137.    seen as a sequence number in a received DT TPDU.  Since the window
  3138.    timer is reset each time an AK TPDU is transmitted, there is usually
  3139.    no need to set the timer to any less than the value on the right-hand
  3140.    side of the condition.  An exception is when both C and the maximum
  3141.    TPDU size are large, and Erl is large.
  3142.  
  3143.    When the probability that a TPDU will be lost is small, the value of
  3144.    W can be quite large, on the order of several minutes.  However, this
  3145.    increases the delay the peer entity will experience in detecting the
  3146.    deactivation of the local transport entity.  Thus, the value of W
  3147.    should be given some consideration in terms of how soon the peer
  3148.    entity needs to detect inactivity.  This could be done by placing
  3149.    such information into a quality of service record associated with the
  3150.    peer's address.
  3151.  
  3152.    When the expected network error rate is high, it may be necessary to
  3153.    reduce the value of W to ensure that AK TPDUs are being received by
  3154.    the remote entity, especially when both entities are quiescent for
  3155.    some period of time.
  3156.  
  3157. 8.1.4   Reference timer.
  3158.  
  3159.    The reference timer measures  the  time  period  during which a
  3160.    source reference must not be reassigned to another transport
  3161.    connection, in order that spurious duplicate  messages not
  3162.    interfere  with a new connection.  The value for this timer
  3163.    given in IS 8073 is
  3164.  
  3165.     L = Mlr + Mrl + R + Ar
  3166.  
  3167.    where
  3168.  
  3169.     R = T1*N + z
  3170.  
  3171.    in which z is a small tolerance quantity to allow for factors
  3172.    internal to the entity.  The use of L as a bound, however, must be
  3173.    considered carefully.  In some cases, L may be very large, and not
  3174.    realistic as an upper or a lower bound.  Such cases may be
  3175.    encountered on routes over several catenated networks where R is set
  3176.    high to provide adequate recovery from TPDU loss.  In other cases L
  3177.    may be very small, as when transmission is carried out over a LAN and
  3178.    R is set small due to low probability of TPDU loss.  When L is
  3179.    computed to be very small, the reference need not be timed out at
  3180.    all, since the probability of interference is zero.  On the other
  3181.    hand, if L is computed to be very large a smaller value can be used.
  3182.  
  3183.  
  3184.  
  3185. McCoy                                                          [Page 54]
  3186.  
  3187. RFC 1008                                                       June 1987
  3188.  
  3189.  
  3190.    One choice for the value  might be
  3191.  
  3192.     L = min( R,(Mrl + Mlr)/2 )
  3193.  
  3194.    If the reference number assigned to  a  new  connection  by  an
  3195.    entity  is monotonically incremented for each new connection through
  3196.    the entire available reference space (maximum 2**16 - 1), the timer
  3197.    is not critical: the sequence space is large enough that it is likely
  3198.    that there will be no spurious messages in  the network by the time
  3199.    reference numbers are reused.
  3200.  
  3201. 8.2   Flow control.
  3202.  
  3203.    The peer-to-peer flow control mechanism  in  the  transport protocol
  3204.    determines  the  upper bound on the pace of data exchange that occurs
  3205.    on  transport  connections.   The transport  entity  at  each end of
  3206.    a connection offers a credit to its peer representing the number of
  3207.    data  messages it  is  currently willing to accept.  All received
  3208.    data messages are acknowledged,  with  the  acknowledgement  message
  3209.    containing  the  current  receive  credit  information.  The three
  3210.    credit allocation schemes discussed  below  present  a diverse  set
  3211.    of  examples  of  how one might derive receive credit values.
  3212.  
  3213. 8.2.1   Pessimistic credit allocation.
  3214.  
  3215.    Pessimistic credit allocation is perhaps the simplest form of flow
  3216.    control.  It is similar in concept to X-on/X-off control.  In this
  3217.    method, the receiver always offers a credit of one TPDU.  When the DT
  3218.    TPDU is received, the receiver responds with an AK TPDU carrying a
  3219.    credit of zero.  When the DT TPDU has been processed by the receiving
  3220.    entity, an additional AK TPDU carrying a credit of one will be sent.
  3221.    The advantage to this approach is  that  the data  exchange  is  very
  3222.    tightly controlled by the receiving entity.  The disadvantages are:
  3223.    1) the  exchange  is  slow, every data  message requiring at least
  3224.    the time of two round trips to complete the transfer transfer, and 2)
  3225.    the ratio of acknowledgement to data messages sent is 2:1.  While not
  3226.    recommeneded, this scheme illustrates one extreme method of credit
  3227.    allocation.
  3228.  
  3229. 8.2.2   Optimistic credit allocation.
  3230.  
  3231.    At the other extreme from pessimistic credit allocation is optimistic
  3232.    credit  allocation,  in  which  the  receiver offers more credit than
  3233.    it has buffers.  This scheme  has  two  dangers.  First, if the
  3234.    receiving user is not accepting data at a fast enough rate, the
  3235.    receiving transport's  buffers  will  become filled.  Since  the
  3236.    credit  offered  was optimistic, the sending entity will continue to
  3237.    transmit data, which must be dropped  by the receiving entity for
  3238.    lack of buffers. Eventually,  the  sender  may  reach  the  maximum
  3239.    number   of retransmissions and terminate the connection.
  3240.  
  3241.  
  3242.  
  3243.  
  3244. McCoy                                                          [Page 55]
  3245.  
  3246. RFC 1008                                                       June 1987
  3247.  
  3248.  
  3249.    The second danger in using optimistic flow  control  is that the
  3250.    sending entity may transmit faster than the receiving entity can
  3251.    consume.  This could result from  the  sender being  implemented  on
  3252.    a faster machine or being a more efficient implementation.  The
  3253.    resultant behavior is essentially the same as described above:
  3254.    receive buffer saturation, dropped data messages, and connection
  3255.    termination.
  3256.  
  3257.    The two dangers  cited  above  can  be  ameliorated  by implementing
  3258.    the credit reduction scheme as specified in the protocol.  However,
  3259.    optimistic credit allocation works  well only  in  limited
  3260.    circumstances.   In most situations it is inappropriate and
  3261.    inefficient even when using credit reduction.  Rather  than seeking
  3262.    to avoid congestion, optimistic allocation causes it, in most cases,
  3263.    and credit reduction simply allows  one to recover from congestion
  3264.    once it has happened.  Note that optimistic credit allocation
  3265.    combined with caching out-of-sequence messages requires a
  3266.    sophisticated buffer management scheme to avoid reasssembly deadlock
  3267.    and subsequent loss of the transport connection.
  3268.  
  3269. 8.2.3   Buffer-based credit allocation.
  3270.  
  3271.    Basing the receive  credit  offered  on  the  actual availability  of
  3272.    receive  buffers  is  a  better method for achieving flow control.
  3273.    Indeed, with few exceptions, the implementations that have been
  3274.    studied used this method.  It continuous  flow  of  data  and
  3275.    eliminating the need for the credit-restoring  acknowledgements.
  3276.    Since  only  available buffer space is offered, the dangers of
  3277.    optimistic credit allocation are also avoided.
  3278.  
  3279.    The amount of buffer space needed to  maintain  a  continuous bulk
  3280.    data  transfer,  which represents the maximum buffer requirement, is
  3281.    dependent on round trip  delay  and network  speed.  Generally, one
  3282.    would want the buffer space, and hence the credit, large enough to
  3283.    allow  the  sender  to send continuously, so that incremental credit
  3284.    updates arrive just prior to the sending entity  exhausting  the
  3285.    available credit.   One example is a single-hop satellite link
  3286.    operating at 1.544  Mbits/sec.   One  report [COL85]  indicates  that
  3287.    the buffer requirement necessary for continuous flow is approximately
  3288.    120 Kbytes.  For 10 Mbits/sec. IEEE 802.3 and 802.4 LANs, the figure
  3289.    is on the order of 10K to 15K bytes [BRI85, INT85, MIL85].
  3290.  
  3291.    An interesting modification to the buffer-based  credit allocation
  3292.    scheme is suggested by R.K. Jain [JAI85].  Whereas the approach
  3293.    described above is based strictly on the available buffer space, Jain
  3294.    suggests a scheme in which credit is reduced  voluntarily  by  the
  3295.    sending  entity  when  network congestion  is  detected.  Congestion
  3296.    is implied by the occurrence of retransmissions.  The sending
  3297.    entity,  recognizing retransmissions,  reduces  the local value of
  3298.    credit to one, slowly raising it to the actual receive credit
  3299.    allocation as error-free transmissions continue to occur.  This
  3300.  
  3301.  
  3302.  
  3303. McCoy                                                          [Page 56]
  3304.  
  3305. RFC 1008                                                       June 1987
  3306.  
  3307.  
  3308.    technique can overcome various types of network congestion occurring
  3309.    when a fast sender overruns a slow receiver when no link level flow
  3310.    control is available.
  3311.  
  3312. 8.2.4   Acknowledgement policies.
  3313.  
  3314.    It is useful first to  review the four uses of the acknowledgement
  3315.    message in Class 4 transport.  An acknowledgement message:
  3316.  
  3317.           1) confirms correct receipt of data messages,
  3318.  
  3319.           2) contains a credit allocation, indicating how  many
  3320.              data  messages  the  entity  is willing to receive
  3321.              from the correspondent entity,
  3322.  
  3323.           3) may  optionally  contain  fields   which   confirm
  3324.              receipt   of  critical  acknowledgement  messages,
  3325.              known as flow control confirmation (FCC), and
  3326.  
  3327.           4) is sent upon expiration of  the  window  timer  to
  3328.              maintain  a minimum level of traffic on an
  3329.              otherwise quiescent connection.
  3330.  
  3331.    In choosing an acknowledgement strategy, the first and  third uses
  3332.    mentioned  above,  data  confirmation and FCC, are the most relevant;
  3333.    the second, credit allocation, is  determined according  to  the
  3334.    flow  control  strategy  chosen, and the fourth,  the  window
  3335.    acknowledgement,  is  only   mentioned briefly in the discussion on
  3336.    flow control confirmation.
  3337.  
  3338. 8.2.4.1   Acknowledgement of data.
  3339.  
  3340.    The primary purpose of the acknowledgement  message  is to  confirm
  3341.    correct  receipt  of  data messages.  There are several choices that
  3342.    the implementor must make when  designing a  specific
  3343.    implementation.   Which  choice to make is based largely on the
  3344.    operating  environment  (e.g.,  network error  characteristics).
  3345.    The issues to be decided upon are discussed in the sections below.
  3346.  
  3347. 8.2.4.1.1  Misordered data messages.
  3348.  
  3349.    Data messages received out  of  order  due  to  network misordering
  3350.    or loss can be cached or discarded.  There is no single determinant
  3351.    that guides the implementor to one or  the  other choice.  Rather,
  3352.    there are a number of issues to be considered.
  3353.  
  3354.    One issue is the importance of maintaining a low  delay as  perceived
  3355.    by  the user.  If transport data messages are lost or damaged in
  3356.    transit, the absence of a  positive acknowledgement  will trigger a
  3357.    retransmission at the sending entity.  When the retransmitted data
  3358.    message arrives at  the receiving  transport,  it  can be delivered
  3359.  
  3360.  
  3361.  
  3362. McCoy                                                          [Page 57]
  3363.  
  3364. RFC 1008                                                       June 1987
  3365.  
  3366.  
  3367.    to the user.  If subsequent data messages had  been  cached,  they
  3368.    could  be delivered  to  the user at the same time.  The delay
  3369.    between the sending  and  receiving  users  would,  on  average, be
  3370.    shorter  than  if messages subsequent to a lost message were
  3371.    dependent on retransmission for recovery.
  3372.  
  3373.    A second factor that influences the caching choice is  the cost of
  3374.    transmission.  If transmission costs are high, it is more economical
  3375.    to cache  misordered  data,  in  conjunction with the use of
  3376.    selective acknowledgement (described below), to avoid
  3377.    retransmissions.
  3378.  
  3379.    There are two resources that are conserved by not caching misordered
  3380.    data: design and implementation time for the transport entity and CPU
  3381.    processing time during execution.  Savings  in  both  categories
  3382.    accrue  because a non-caching implementation is simpler in its buffer
  3383.    management.  Data TPDUs are discarded rather than being reordered.
  3384.    This avoids the overhead of managing the gaps  in  the  received
  3385.    data  sequence space, searching of sequenced message lists, and
  3386.    inserting retransmitted data messages into the lists.
  3387.  
  3388. 8.2.4.1.2   Nth acknowledgement.
  3389.  
  3390.    In general, an acknowledgement message  is  sent  after receipt of
  3391.    every N data messages on a connection. If N is small compared to the
  3392.    credit offered, then a finer granularity of buffer  control  is
  3393.    afforded  to  the  data sender's buffer management function.  Data
  3394.    messages are confirmed in small groups,  allowing buffers to be
  3395.    reused sooner than if N were larger.  The cost of having N small is
  3396.    twofold.  First, more acknowledgement  messages must be generated by
  3397.    one transport entity and processed by another, consuming some of  the
  3398.    CPU resource  at  both  ends  of a connection.  Second, the
  3399.    acknowledgement messages consume transmission bandwidth,  which may
  3400.    be expensive or limited.
  3401.  
  3402.    For larger  N,  buffer  management  is  less  efficient because the
  3403.    granularity with which buffers are controlled is N times the maximum
  3404.    TPDU size.  For example, when data  messages are  transmitted to a
  3405.    receiving entity employing this strategy with large N, N data
  3406.    messages must be  sent  before an  acknowledgement  is  returned
  3407.    (although the window timer causes the acknowledgement to  be  sent
  3408.    eventually regardless  of  N).  If the minimum credit allocation for
  3409.    continuous operation is actually  a  fraction  of  N,  a credit  of N
  3410.    must still be offered, and N receive buffers reserved, to achieve a
  3411.    continuous  flow  of  data  messages.  Thus,  more  receive  buffers
  3412.    are used than are actually needed.  (Alternatively, if one relies on
  3413.    the timer,  which  must  be adjusted to the receipt time for N and
  3414.    will not expire until some time after the fraction of N has been
  3415.    sent,  there  may be idle time.)
  3416.  
  3417.    The choice of values for N depends on several factors.  First, if the
  3418.  
  3419.  
  3420.  
  3421. McCoy                                                          [Page 58]
  3422.  
  3423. RFC 1008                                                       June 1987
  3424.  
  3425.  
  3426.    rate at which DT TDPUs are arriving is relatively low, then there is
  3427.    not much justification for using a value for N that exceeds 2.  On
  3428.    the other hand, if the DT TPDU arrival rates is high or the TPDU's
  3429.    arrive in large groups (e.g., in a frame from a satellite link), then
  3430.    it may be reasonable to use a larger value for N, simply to avoid the
  3431.    overhead of generating and sending the acknowledgements while
  3432.    procesing the DT TPDUs.  Second, the value of N should be related to
  3433.    the maximum credit to be offered. Letting C be the maximum credit to
  3434.    be offered, one should choose N < C/2, since the receipt of C TPDUs
  3435.    without acknowledging will provoke sending one in any case. However,
  3436.    since the extended formats option for transport provides max C =
  3437.    2**16 - 1, a choice of N = 2**15 - 2 is likely to cause some of the
  3438.    sender's retransmission timers to expire.  Since the retransmitted
  3439.    TPDU's will arrive out of sequence, they will provoke the sending of
  3440.    AK TPDU's.  Thus, not much is gained by using an N large.  A better
  3441.    choice is N = log C (base 2).  Third, the value of should be related
  3442.    to the maximum TPDU size used on the connection and the overall
  3443.    buffer management. For example, the buffer management may be tied to
  3444.    the largest TPDU that any connection will use, with each connection
  3445.    managing the actual way in which the negotiated TPDU size relates to
  3446.    this buffer size.  In such case, if a connection has negotiated a
  3447.    maximum TPDU size of 128 octets and the buffers are 2048 octets, it
  3448.    may provide better management to partially fill a buffer before
  3449.    acknowledging.  If the example connection has two buffers and has
  3450.    based offered credit on this, then one choice for N could be 2*log(
  3451.    2048/128 ) = 8.  This would mean that an AK TPDU would be sent when a
  3452.    buffer is half filled ( 2048/128 = 16 ), and a double buffering
  3453.    scheme used to manage the use of the two buffers.  the use of the t
  3454.    There are two studies which indicate that, in many cases, 2 is a good
  3455.    choice for N [COL85, BRI85].  The increased granularity in buffer
  3456.    management is reasonably small when compared to the credit
  3457.    allocation, which ranges from 8K to 120K octets in the studies cited.
  3458.    The benefit is that the number of acknowledgements generated (and
  3459.    consumed) is cut approximately in half.
  3460.  
  3461. 8.2.4.1.3   Selective acknowledgement.
  3462.  
  3463.    Selective acknowledgement is an option that allows misordered data
  3464.    messages to be confirmed even in the presence of gaps in the received
  3465.    message sequence.   (Note that selective  acknowledgement  is  only
  3466.    meaningul whe caching out-of-orderdata messags.)  The  advantage  to
  3467.    using  this mechanism  is hat i grealy reduces the number of
  3468.    unnecessary retransmissions, thus saving both  computing  time  and
  3469.    transmission bandwidth [COL85] (see the discussion in Part 8.2.4.1.1
  3470.    for  more  details).
  3471.  
  3472. 8.2.4.2   Flow control confirmation and fast retransmission.
  3473.  
  3474.    Flow control confirmation (FCC) is a mechanism of the transport
  3475.    protocol whereby acknowledgement messages containing critical flow
  3476.    control information are confirmed.  The critical  acknowledgement
  3477.  
  3478.  
  3479.  
  3480. McCoy                                                          [Page 59]
  3481.  
  3482. RFC 1008                                                       June 1987
  3483.  
  3484.  
  3485.    messages are those  that open a closed flow control window and
  3486.    certain ones that occur subsequent  to a credit reduction.  In
  3487.    principle, if these critical messages are lost, proper
  3488.    resynchroniztion of the flow control relies on the window timer,
  3489.    which is generally of relatively long duration.   In order to reduce
  3490.    delay in resynchronizing the flow control, the receiving entity can
  3491.    repeatedly send, within short intervals, AK TPDUs carrying a request
  3492.    for confirmation of the flow control state, a procedure known as
  3493.    "fast" retransmission (of the acknowledgement).  If the sender
  3494.    responds with an AK TPDU carrying an FCC parameter, fast
  3495.    retransmission is halted.  If no AK TPDU carrying the FCC parameter
  3496.    is received, the fast transmission halts after having reached a
  3497.    maximum number of retransmissions, and the window timer resumes
  3498.    control of AK TPDU transmission.  It should be noted that FCC is an
  3499.    optional mechanism of transport and the data sender is not required
  3500.    to respond to a request for confirmation of the flow control state
  3501.    wih an AK TPDU carrying the FCC parameter.
  3502.  
  3503.    Some considerations for deciding whether or not to use FCC and fast
  3504.    retransmisson procedures are as follows:
  3505.  
  3506.     1) likelihood of credit reduction on a given transport connection;
  3507.  
  3508.     2) probability of TPDU loss;
  3509.  
  3510.     3) expected window timer period;
  3511.  
  3512.     4) window size; and
  3513.  
  3514.     5) acknowledgement strategy.
  3515.  
  3516.    At this time, there is no reported experience with using FCC and fast
  3517.    retransmission.  Thus, it is not known whether or not the procedures
  3518.    produce sufficient reduction of resynchronization delay to warrant
  3519.    implementing them.
  3520.  
  3521.    When implementing fast retransmission, it is suggested that the timer
  3522.    used for the window timer be employed as the fast timer, since the
  3523.    window is disabled during fast retransmission in any case.  This will
  3524.    avoid having to manage another timer.  The formal description
  3525.    expressed the fast retransmission timer as a separate timer for
  3526.    clarity.
  3527.  
  3528. 8.2.4.3   Concatenation of acknowledgement and data.
  3529.  
  3530.    When full duplex communication is being operated by two transport
  3531.    entities, data and acknowledgement TPDUs from each one of the
  3532.    entities travel in the same direction.  The transport protocol
  3533.    permits concatenating AK TPDUs in the same NSDU as a DT TPDU.  The
  3534.    advantage of using this feaure in an implementation is that fewer
  3535.    NSDUs will be transmitted, and, consequently, fewer total octets will
  3536.  
  3537.  
  3538.  
  3539. McCoy                                                          [Page 60]
  3540.  
  3541. RFC 1008                                                       June 1987
  3542.  
  3543.  
  3544.    be sent, due to the reduced number of network headers transmitted.
  3545.    However, when operating over the IP, this advantage may not
  3546.    necessarily be recognized, due to the possible fragmentation of the
  3547.    NSDU by the IP.  A careful analysis of the treatment of the NSDU in
  3548.    internetwork environments should be done to determine whether or not
  3549.    concatenation of TPDUs is of sufficient benefit to justify its use in
  3550.    that situation.
  3551.  
  3552. 8.2.5   Retransmission policies.
  3553.  
  3554.    There are primarily two  retransmission  policies  that can be
  3555.    employed in a transport implementation.  In the first of these, a
  3556.    separate retransmission timer  is  initiated  for each  data  message
  3557.    sent by the transport entity.  At first glance, this approach appears
  3558.    to be simple and  straightforward to implement.  The deficiency of
  3559.    this scheme is that it is inefficient.  This derives from two
  3560.    sources.  First,  for each data message transmitted, a timer must be
  3561.    initiated and cancelled, which consumes a significant amount of  CPU
  3562.    processing  time  [BRI85].   Second, as the list of outstanding
  3563.    timers grows, management of the list also  becomes  increasingly
  3564.    expensive.   There  are  techniques  which  make list management more
  3565.    efficient, such as a list per connection and hashing,  but
  3566.    implementing  a  policy of one retransmission timer per transport
  3567.    connection is a superior choice.
  3568.  
  3569.    The second retransmission policy, implementing one retransmission
  3570.    timer for each transport conenction, avoids some of the
  3571.    inefficiencies cited above: the  list  of  outstanding  timers  is
  3572.    shorter by approximately an order of magnitude.  However, if the
  3573.    entity receiving the data is generating an  acknowledgement for
  3574.    every  data message, the timer must still be cancelled and restarted
  3575.    for each  data/acknowledgement  message pair  (this is an additional
  3576.    impetus for implementing an Nth acknowledgement policy with N=2).
  3577.  
  3578.    The rules governing the  single  timer  per  connection scheme are
  3579.    listed below.
  3580.  
  3581.           1) If  a  data  message  is   transmitted   and   the
  3582.              retransmission  timer  for  the  connection is not
  3583.              already running, the timer is started.
  3584.  
  3585.           2) If an acknowledgement for previously unacknowledged
  3586.              data is received, the retransmission timer is restarted.
  3587.  
  3588.           3) If an acknowledgement message is received for  the
  3589.              last  outstanding  data  message on the connection
  3590.              then the timer is cancelled.
  3591.  
  3592.           4) If the retransmission timer expires, one  or  more
  3593.              unacknowledged  data  messages  are retransmitted,
  3594.              beginning with the one sent earliest.  (Two
  3595.  
  3596.  
  3597.  
  3598. McCoy                                                          [Page 61]
  3599.  
  3600. RFC 1008                                                       June 1987
  3601.  
  3602.  
  3603.              reports [HEA85, BRI85] suggest that the number
  3604.              to retransmit is one.)
  3605.  
  3606. 8.3   Protocol control.
  3607.  
  3608. 8.3.1   Retransmission timer values.
  3609.  
  3610. 8.3.1.1   Data retransmission timer.
  3611.  
  3612.    The value for the reference timer may have a significant impact on
  3613.    the performance of the transport protocol [COL85].  However,
  3614.    determining the proper value to use is sometimes difficult.
  3615.    According to IS 8073, the value for the timer is computed using the
  3616.    transit delays, Erl and Elr, the acknowledgement delay, Ar, and the
  3617.    local TPDU processing time, x:
  3618.  
  3619.     T1 = Erl + Elr + Ar + x
  3620.  
  3621.    The  difficulty  in  arriving at a good retransmission timer value is
  3622.    directly related to the variability of  these  factors Of the two,
  3623.    Erl and Elr are the most susceptible to variation, and therefore have
  3624.    the most impact on  determining a  good  timer  value.   The
  3625.    following  paragraphs  discuss methods for choosing retransmission
  3626.    timer  values  that  are appropriate in several network environments.
  3627.  
  3628.    In a single-hop satellite environment, network delay (Erl or Elr) has
  3629.    small variance because of the constant propagation delay of about 270
  3630.    ms., which overshadows the other components  of network  delay.
  3631.    Consequently, a fixed retransmission timer provides good performance.
  3632.    For example, for a 64K  bit/sec.  link  speed and network queue size
  3633.    of four, 650 ms. provides good performance [COL85].
  3634.  
  3635.    Local area  networks  also  have  constant  propagation delay.
  3636.    However, propagation delay is a relatively unimportant factor in
  3637.    total network delay for a local area network.  Medium  access  delay
  3638.    and  queuing delay are the significant components of network delay,
  3639.    and (Ar + x) also plays a significant  role  in determining an
  3640.    appropriate retransmission timer.  From the discussion presented in
  3641.    Part 3.4.3.2 typical numbers for (Ar + x) are on the order of 5 - 6.5
  3642.    ms and for Erl or Elr, 5 - 35 ms.  Consequently, a reasonable value
  3643.    for  the  retransmission  timer is 100 ms.  This value works well for
  3644.    local area networks, according to one cited report [INT85] and
  3645.    simulation work performed at the NBS.
  3646.  
  3647.    For better performance in an environment with long propagation
  3648.    delays and significant variance, such as an internetwork an adaptive
  3649.    algorithm is preferred, such as the one suggested value  for  TCP/IP
  3650.    [ISI81].  As analyzed by Jain [JAI85], the algorithm uses an
  3651.    exponential averaging scheme to  derive  a round trip delay estimate:
  3652.  
  3653.                D(i)  = b * D(i-1)  +  (1-b) * S(i)
  3654.  
  3655.  
  3656.  
  3657. McCoy                                                          [Page 62]
  3658.  
  3659. RFC 1008                                                       June 1987
  3660.  
  3661.  
  3662.    where D(i) is the update of the delay estimate, S(i) is  the sample
  3663.    round  trip  time measured between transmission of a given packet and
  3664.    receipt of its acknowledgement, and b is  a weighting   factor
  3665.    between  0  and  1,  usually  0.5.   The retransmission timer is
  3666.    expressed as some multiplier, k,  of D.  Small values of k cause
  3667.    quick detection of lost packets, but result in a higher number of
  3668.    false timeouts and,  therefore, unnecessary   retransmissions.    In
  3669.    addition,  the retransmission timer should  be  increased
  3670.    arbitrarily  for each case of multiple transmissions; an exponential
  3671.    increase is suggested, such that
  3672.  
  3673.                D(i) = c * D(i-1)
  3674.  
  3675.    where c is a dimensionless parameter greater than one.
  3676.  
  3677.    The remaining parameter for the adaptive  algorithm  is the  initial
  3678.    delay  estimate,  D(0).   It  is preferable to choose a slightly
  3679.    larger value than needed, so that unnecessary retransmissions  do
  3680.    not  occur at the beginning.  One possibility is to measure the round
  3681.    trip delay  during connection  establishment.   In  any  case, the
  3682.    timer converges except under conditions of sustained congestion.
  3683.  
  3684. 8.3.1.2   Expedited data retransmission timer.
  3685.  
  3686.    The timer which  governs  retransmission  of  expedited data should
  3687.    be set using the normal data retransmission timer value.
  3688.  
  3689. 8.3.1.3   Connect-request/confirm retransmission timer.
  3690.  
  3691.    Connect request and confirm  messages  are  subject  to Erl + Elr,
  3692.    total network delay, plus  processing  time  at  the receiving
  3693.    transport entity, if these values are known.  If an accurate estimate
  3694.    of the round trip time is not known, two  views  can be espoused in
  3695.    choosing the value for this timer.  First,  since  this  timer
  3696.    governs  connection establishment, it is desirable to minimize delay
  3697.    and so a small value can be chosen, possibly resulting in unnecessary
  3698.    retransmissions.  Alternatively, a larger value can be used, reducing
  3699.    the possibility of unnecessary retransmissions, but resulting in
  3700.    longer delay in connection establishment should the connect request
  3701.    or confirm message be lost.  The choice between these two views is
  3702.    dictated largely by local requirements.
  3703.  
  3704. 8.3.1.4  Disconnect-request retransmission timer.
  3705.  
  3706.    The timer which governs retransmission of  the  disconnect request
  3707.    message  should  be  set from the normal data retransmission timer
  3708.    value.
  3709.  
  3710. 8.3.1.5   Fast retransmission timer.
  3711.  
  3712.    The fast  retransmission  timer  causes  critical acknowledgement
  3713.  
  3714.  
  3715.  
  3716. McCoy                                                          [Page 63]
  3717.  
  3718. RFC 1008                                                       June 1987
  3719.  
  3720.  
  3721.    messages to be retransmitted avoiding delay in resynchronizing
  3722.    credit.  This timer should be set to approximately Erl + Elr.
  3723.  
  3724. 8.3.2   Maximum number of retransmissions.
  3725.  
  3726.    This transport parameter determines the maximum  number of  times  a
  3727.    data message will be retransmitted.  A typical value is eight.  If
  3728.    monitoring of network service is performed then this value can be
  3729.    adjusted according to observed error rates.  As a high error rate
  3730.    implies a high probability of TPDU loss, when it is desirable to
  3731.    continue sending despite the decline in quality of service, the
  3732.    number of TPDU retransmissions (N) should be increased and the
  3733.    retransmission interval (T1) reduced.
  3734.  
  3735. 8.4   Selection of maximum Transport Protocol data unit size.
  3736.  
  3737.    The choice of maximum size for TPDUs in negotiation proposals depends
  3738.    on the application to be served and the service quality of the
  3739.    supporting network.  In general, an application which produces large
  3740.    TSDUs should use as large TPDUs as can be negotiated, to reduce the
  3741.    overhead due to a large number of small TPDUs.  An application which
  3742.    produces small TSDUs should not be affected by the choice of a large
  3743.    maximum TPDU size, since a TPDU need not be filled to the maximum
  3744.    size to be sent.  Consequently, applications such as file transfers
  3745.    would need larger TPDUs while terminals would not.  On a high
  3746.    bandwidth network service, large TPDUs give better channel
  3747.    utilization than do smaller ones.  However, when error rates are
  3748.    high, the likelihood for a given TPDU to be damaged is correlated to
  3749.    the size and the frequency of the TPDUs.  Thus, smaller TPDU size in
  3750.    the condition of high error rates will yield a smaller probability
  3751.    that any particular TPDU will be lost.
  3752.  
  3753.    The implementor must choose whether or not to apply a uniform maximum
  3754.    TPDU size to all connections.  If the network service is uniform in
  3755.    service quality, then the selection of a uniform maximum can simplify
  3756.    the implementation.  However, if the network quality is not uniform
  3757.    and it is desirable to optimize the service provided to the transport
  3758.    user as much as possible, then it may be better to determine the
  3759.    maximum size on an individual connection basis.  This can be done at
  3760.    the time of the network service access if the characteristics of the
  3761.    subnetwork are known.
  3762.  
  3763.    NOTE: The maximum TPDU size is important in the calculation of the
  3764.    flow control credit, which is in numbers of TPDUs offered.  If buffer
  3765.    space is granted on an octet base, then credit must be granted as
  3766.    buffer space divided by maximum TPDU size.  Use of a smaller TPDU
  3767.    size can be equivalent to optimistic credit allocation and can lead
  3768.    to the expected problems, if proper analysis of the management is not
  3769.    done.
  3770.  
  3771.  
  3772.  
  3773.  
  3774.  
  3775. McCoy                                                          [Page 64]
  3776.  
  3777. RFC 1008                                                       June 1987
  3778.  
  3779.  
  3780. 9   Special options.
  3781.  
  3782.    Special options may be obtained by taking advantage of the manner in
  3783.    which IS 8073 and N3756 have been written.  It must be emphasized
  3784.    that these options in no way violate the intentions of the standards
  3785.    bodies that produced the standards.  Flexibility was deliberately
  3786.    written into the standards to ensure that they do not constrain
  3787.    applicability to a wide variety of situations.
  3788.  
  3789. 9.1   Negotiations.
  3790.  
  3791.    The negotiation procedures in IS 8073 have deliberate ambiguities in
  3792.    them to permit flexibility of usage within closed groups of
  3793.    communicants (the standard defines explicitly only the behavior among
  3794.    open communicants).  A closed group of communicants in an open system
  3795.    is one which, by reason of organization, security or other special
  3796.    needs, carries on certain communication among its members which is
  3797.    not of interest or not accessible to other open system members.
  3798.    Examples of some closed groups within DOD might be:  an Air Force
  3799.    Command, such as the SAC; a Navy base or an Army post; a ship;
  3800.    Defense Intelligence; Joint Chiefs of Staff. Use of this
  3801.    characteristic does not constitute standard behavior, but it does not
  3802.    violate conformance to the standard, since the effects of such usage
  3803.    are not visible to non-members of the closed group.  Using the
  3804.    procedures in this way permits options not provided by the standard.
  3805.    Such options might permit,for example, carrying special protection
  3806.    codes on protocol data units or for identifying DT TPDUs as carrying
  3807.    a particular kind of message.
  3808.  
  3809.    Standard negotiation procedures state that any parameter in a
  3810.    received CR TPDU that is not defined by the standard shall be
  3811.    ignored.  This defines only the behavior that is to be exhibited
  3812.    between two open systems.  It does not say that an implementation
  3813.    which recognizes such non-standard parameters shall not be operated
  3814.    in networks supporting open systems interconnection.  Further, any
  3815.    other type TPDU containing non-standard parameters is to be treated
  3816.    as a protocol error when received.  The presumption here is that the
  3817.    non-standard parameter is not recognized, since it has not been
  3818.    defined.  Now consider the following example:
  3819.  
  3820.    Entity A sends Entity B a CR TPDU containing a non-standard
  3821.    parameter.
  3822.  
  3823.    Entity B has been implemented to recognize the non-standard parameter
  3824.    and to interpret its presence to mean that Entity A will be sending
  3825.    DT TPDUs to Entity B with a special protection identifier parameter
  3826.    included.
  3827.  
  3828.    Entity B sends a CC TPDU containing the non-standard parameter to
  3829.    indicate to Entity A that it has received and understood the
  3830.    parameter, and is prepared to receive the specially marked DT TPDUs
  3831.  
  3832.  
  3833.  
  3834. McCoy                                                          [Page 65]
  3835.  
  3836. RFC 1008                                                       June 1987
  3837.  
  3838.  
  3839.    from Entity A.  Since Entity A originally sent the non-standard
  3840.    parameter, it recognizes the parameter in the CC TPDU and does not
  3841.    treat it as a protocol error.
  3842.  
  3843.    Entity A may now send the specially marked DT TPDUs to Entity B and
  3844.    Entity B will not reject them as protocol errors.
  3845.  
  3846.  
  3847.    Note that Entity B sends a CC TPDU with the non-standard parameter
  3848.    only if it receives a CR TPDU containing the parameter, so that it
  3849.    does not create a protocol error for an initiating entity that does
  3850.    not use the parameter.  Note also that if Entity B had not recognized
  3851.    the parameter in the CR TPDU, it would have ignored it and not
  3852.    returned a CC TPDU containing the parameter.  This non-standard
  3853.    behavior is clearly invisible and inaccessible to Transport entities
  3854.    outside the closed group that has chosen to implement it, since they
  3855.    are incapable of distinguishing it from errors in protocol.
  3856.  
  3857. 9.2   Recovery from peer deactivation.
  3858.  
  3859.    Transport does not directly support the recovery of the transport
  3860.    connection from a crashed remote transport entity.  A partial
  3861.    recovery is possible, given proper interpretation of the state tables
  3862.    in Annex A to IS 8073 and implementation design.  The interpretation
  3863.    of the Class 4 state tables necessary to effect this operation is as
  3864.    follows:
  3865.  
  3866.    Whenever a CR TPDU is received in the state OPEN, the entity is
  3867.    required only to record the new network connection and to reset the
  3868.    inactivity timer.  Thus, if the initiator of the original connection
  3869.    is the peer which crashed, it may send a new CR TPDU to the surviving
  3870.    peer, somehow communicating to it the original reference numbers
  3871.    (there are several ways that this can be done).
  3872.  
  3873.  
  3874.       Whenever a CC TPDU is received in the
  3875.  
  3876.    state OPEN, the receiver is required only to record the new network
  3877.    connection, reset the inactivity timer and send either an AK, DT or
  3878.    ED TPDU.  Thus, if the responder for the original connection is the
  3879.    peer which crashed, it may send a new CC TPDU to the surviving peer,
  3880.    communicating to it the original reference numbers.
  3881.  
  3882.    In order for this procedure to operate properly, the situation in a.,
  3883.    above, requires a CC TPDU to be sent in response.  This could be the
  3884.    original CC TPDU that was sent, except for new reference numbers.
  3885.    The original initiator will have sent a new reference number in the
  3886.    new CR TPDU, so this would go directly into the CC TPDU to be
  3887.    returned.  The new reference number for the responder could just be a
  3888.    new assignment, with the old reference number frozen.  In the
  3889.    situation in b., the originator could retain its reference number (or
  3890.  
  3891.  
  3892.  
  3893. McCoy                                                          [Page 66]
  3894.  
  3895. RFC 1008                                                       June 1987
  3896.  
  3897.  
  3898.    assign a new one if necessary), since the CC TPDU should carry both
  3899.    old reference numbers and a new one for the responder (see below).
  3900.    In either situation, only the new reference numbers need be extracted
  3901.    from the CR/CC TPDUs, since the options and parameters will have been
  3902.    previously negotiated.  This procedure evidently requires that the CR
  3903.    and CC TPDUs of each connection be stored by the peers in nonvolatile
  3904.    memory, plus particulars of the negotiations.
  3905.  
  3906.    To transfer the new reference numbers, it is suggested that the a new
  3907.    parameter in the CR and CC TPDU be defined, as in Part 9.1, above.
  3908.    This parameter could also carry the state of data transfer, to aid in
  3909.    resynchronizing, in the following form:
  3910.  
  3911.     1) the last DT sequence number received by the peer that crashed;
  3912.  
  3913.     2) the last DT sequence number sent by the peer that
  3914.        crashed;
  3915.  
  3916.     3) the credit last extended by the peer that crashed;
  3917.  
  3918.     4) the last credit perceived as offered by the surviving peer;
  3919.  
  3920.     5) the next DT sequence number the peer that crashed expects to
  3921.        send (this may not be the same as the last one sent, if the last
  3922.        one sent was never acknowledged);
  3923.  
  3924.     6) the sequence number of an unacknowledged ED TPDU, if any;
  3925.  
  3926.     7) the normal data sequence number corresponding to the
  3927.        transmission of an unacknowledged ED TPDU, if any (this is to
  3928.        ensure the proper ordering of the ED TPDU in the normal data
  3929.        flow);
  3930.  
  3931.    A number of other considerations must be taken into account when
  3932.    attempting data transfer resynchronization.  First, the recovery will
  3933.    be greatly complicated if subsequencing or flow control confirmation
  3934.    is in effect when the crash occurs.  Careful analysis should be done
  3935.    to determine whether or not these features provide sufficient benefit
  3936.    to warrant their inclusion in a survivable system.  Second,
  3937.    non-volatile storage of TPDUs which are unacknowledged must be used
  3938.    in order that data loss at the time of recovery can be minimized.
  3939.    Third, the values for the retranmsission timers for the communicating
  3940.    peers must allow sufficient time for the recovery to be attempted.
  3941.    This may result in longer delays in retransmitting when TPDUs are
  3942.    lost under normal conditions. One way that this might be achieved is
  3943.    for the peers to exchange in the original CR/CC TPDU exchange, their
  3944.    expected lower bounds for the retransmission timers, following the
  3945.    procedure in Part 9.1.  In this manner, the peer that crashed may be
  3946.    determine whether or not a new connection should be attempted. Fourth,
  3947.    while the recovery involves directly only the transport peers when
  3948.    operating over a connectionless network service, recovery when
  3949.  
  3950.  
  3951.  
  3952. McCoy                                                          [Page 67]
  3953.  
  3954. RFC 1008                                                       June 1987
  3955.  
  3956.  
  3957.    operating over a connection-oriented network service requires some
  3958.    sort of agreement as to when a new network connection is to be
  3959.    established (if necessary) and which peer is responsible for doing
  3960.    it.  This is required to ensure that unnecessary network
  3961.    connections are not opened as a result of the recovery.  Splitting
  3962.    network connections may help to ameliorate this problem.
  3963.  
  3964. 9.3   Selection of transport connection reference numbers.
  3965.  
  3966.    In N3756, when the reference wait period for a connection begins, the
  3967.    resources associated with the connection are released and the
  3968.    reference number is placed in a set of frozen references.  A timer
  3969.    associated with this number is started, and when it expires, the
  3970.    number is removed from the set.  A function which chooses reference
  3971.    numbers checks this set before assigning the next reference number.
  3972.    If it is desired to provide a much longer period by the use of a
  3973.    large reference number space, this can be met by replacing the
  3974.    implementation dependent function "select_local_ref" (page TPE-17 of
  3975.    N3756) by the following code:
  3976.  
  3977.     function select_local_ref : reference_type;
  3978.  
  3979.     begin
  3980.     last_ref := (last_ref + 1) mod( N+1 ) + 1;
  3981.     while last_ref in frozen_ref[class_4] do
  3982.               last_ref := (last_ref + 1) mod( N+1 ) + 1;
  3983.     select_local_ref := last_ref;
  3984.     end;
  3985.  
  3986.    where "last_ref" is a new variable to be defined in declarations
  3987.    (pages TPE-10 - TPE-11), used to keep track of the last reference
  3988.    value assigned, and N is the length of the reference number cycle,
  3989.    which cannot exceed 2**16 - 1 since the reference number fields in
  3990.    TPDUs are restricted to 16 bits in length.
  3991.  
  3992. 9.4   Obtaining Class 2 operation from a Class 4 implementation.
  3993.  
  3994.    The operation of Class 4 as described in IS 8073 logically contains
  3995.    that of the Class 2 protocol.  The formal description, however, is
  3996.    written assuming Class 4 and Class 2 to be distinct.  This was done
  3997.    because the description must reflect the conformance statement of IS
  3998.    8073, which provides that Class 2 alone may be implemented.
  3999.  
  4000.    However, Class 2 operation can be obtained from a Class 4
  4001.    implementation, which would yield the advantages of lower complexity,
  4002.    smaller memory requirements, and lower implementation costs as
  4003.    compared to implementing the classes separately.  The implementor
  4004.    will have to make the following provisions in the transport entity
  4005.    and the Class 4 transport machine to realize Class 2 operation.
  4006.  
  4007.  
  4008.  
  4009.  
  4010.  
  4011. McCoy                                                          [Page 68]
  4012.  
  4013. RFC 1008                                                       June 1987
  4014.  
  4015.  
  4016.      1)   Disable all timers.  In the formal description, all Class 4
  4017.           timers except the reference timer are in the Class 4 TPM.
  4018.           These timers can be designed at the outset to be enabled or
  4019.           not at the instantiation of the TPM.  The reference timer is
  4020.           in the Transport Entity module (TPE) and is activated by the
  4021.           TPE recognizing that the TPM has set its "please_kill_me"
  4022.           variable to "freeze".  If the TPM sets this variable instead
  4023.           to "now", the reference timer for that transport connection is
  4024.           never started.  However, IS 8073 provides that the reference
  4025.           timer can be used, as a local entity management decision, for
  4026.           Class 2.
  4027.  
  4028.           The above procedure should be used when negotiating from Class
  4029.           4 to Class 2.  If Class 2 is proposed as the preferred class,
  4030.           then it is advisable to not disable the inactivity timer, to
  4031.           avoid the possibility of deadlock during connection
  4032.           establishment if the peer entity never responds to the CR
  4033.           TPDU.  The inactivity timer should be set when the CR TPDU is
  4034.           sent and deactivated when the CC TPDU is received.
  4035.  
  4036.      2)   Disable checksums.  This can be done simply by ensuring that
  4037.           the boolean variable "use_checksums" is always set to "false"
  4038.           whenever Class 2 is to be proposed or negotiated.
  4039.  
  4040.      3)   Never permit flow control credit reduction. The formal
  4041.           description makes flow control credit management a function of
  4042.           the TPE operations and such management is not reflected in the
  4043.           operation of the TPM.  Thus, this provision may be handled by
  4044.           always making the "credit-granting" mechanism aware of the
  4045.           class of the TPM being served.
  4046.  
  4047.      4)   Include Class 2 reaction to network service events.  The Class
  4048.           4 handling of network service events is more flexible than
  4049.           that of Class 2 to provide the recovery behavior
  4050.           characteristic of Class 4.  Thus, an option should be provided
  4051.           on the handling of N_DISCONNECT_indication and
  4052.           N_RESET_indication for Class 2 operation.  This consists of
  4053.           sending a T_DISCONNECT_indication to the Transport User,
  4054.           setting "please_kill_me" to "now" (optionally to "freeze"),
  4055.           and transitioning to the CLOSED state, for both events.  (The
  4056.           Class 4 action in the case of the N_DISCONNECT is to remove
  4057.           the network connection from the set of those associated with
  4058.           the transport connection and to attempt to obtain a new
  4059.           network connection if the set becomes empty.  The action on
  4060.           receipt of the N_RESET is to do nothing, since the TPE has
  4061.           already issued the N_RESET_response.)
  4062.  
  4063.      5)   Ensure that TPDU parameters conform to Class 2.  This implies
  4064.           that subsequence numbers should not be used on AK TPDUs, and
  4065.           no flow control confirmation parameters should ever appear in
  4066.           an AK TPDU.  The checksum parameter is prevented from
  4067.  
  4068.  
  4069.  
  4070. McCoy                                                          [Page 69]
  4071.  
  4072. RFC 1008                                                       June 1987
  4073.  
  4074.  
  4075.           appearing by the "false" value of the "use_checksums"
  4076.           variable.  (The acknowledgement time parameter in the CR and
  4077.           CC TPDUs will not be used, by virtue of the negotiation
  4078.           procedure.  No special assurance for its non-use is
  4079.           necessary.)
  4080.  
  4081.           The TPE management of network connections should see to it
  4082.           that splitting is never attempted with Class 4 TPMs running as
  4083.           Class 2.  The handling of multiplexing is the same for both
  4084.           classes, but it is not good practice to multiplex Class 4 and
  4085.           Class 2 together on the same network connection.
  4086.  
  4087.  
  4088.  
  4089.  
  4090.  
  4091.  
  4092.  
  4093.  
  4094.  
  4095.  
  4096.  
  4097.  
  4098.  
  4099.  
  4100.  
  4101.  
  4102.  
  4103.  
  4104.  
  4105.  
  4106.  
  4107.  
  4108.  
  4109.  
  4110.  
  4111.  
  4112.  
  4113.  
  4114.  
  4115.  
  4116.  
  4117.  
  4118.  
  4119.  
  4120.  
  4121.  
  4122.  
  4123.  
  4124.  
  4125.  
  4126.  
  4127.  
  4128.  
  4129. McCoy                                                          [Page 70]
  4130.  
  4131. RFC 1008                                                       June 1987
  4132.  
  4133.  
  4134. 10   References.
  4135.  
  4136.      [BRI85]  Bricker, A., L. Landweber, T.  Lebeck,  M.  Vernon,
  4137.               "ISO  Transport Protocol Experiments," Draft Report
  4138.               prepared by DLS Associates for the  Mitre  Corporation,
  4139.               October 1985.
  4140.  
  4141.      [COL85]  Colella, Richard,  Marnie  Wheatley,  Kevin  Mills,
  4142.               "COMSAT/NBS  Experiment Plan for Transport Protocol,"
  4143.               NBS, Report No. NBSIR 85-3141, May l985.
  4144.  
  4145.      [CHK85]  Chernik, C. Michael, "An NBS Host to Front End
  4146.               Protocol," NBSIR 85-3236, August 1985.
  4147.  
  4148.      [CHO85]  Chong, H.Y., "Software Development and Implementation
  4149.               of NBS Class 4 Transport Protocol," October 1985
  4150.               (available from the author).
  4151.  
  4152.      [HEA85]  Heatley, Sharon, Richard Colella, "Experiment Plan:
  4153.               ISO Transport Over IEEE 802.3 Local Area Network,"
  4154.               NBS, Draft Report (available from the authors),
  4155.               October 1985.
  4156.  
  4157.      [INT85]  "Performance Comparison Between  186/51  and  552,"
  4158.               The  Intel Corporation, Reference No. COM,08, January
  4159.               1985.
  4160.  
  4161.      [ISO84a] IS 8073 Information Processing - Open Systems
  4162.               Interconnection - Transport Protocol Specification,
  4163.               available from ISO TC97/SC6 Secretariat, ANSI,
  4164.               1430 Broadway, New York, NY 10018.
  4165.  
  4166.      [ISO84b] IS 7498 Information Processing - Open Systems
  4167.               Interconnection - Basic Reference Model, available
  4168.               from ANSI, address above.
  4169.  
  4170.      [ISO85a] DP 9074 Estelle - A Formal Description Technique
  4171.               Based on an Extended State Transition Model,
  4172.               available from ISO TC97/SC21 Secretariat, ANSI,
  4173.               address above.
  4174.  
  4175.      [ISO85b] N3756 Information Processing - Open Systems
  4176.               Interconnection - Formal Description of IS 8073
  4177.               in Estelle. (Working Draft, ISO TC97/SC6)
  4178.  
  4179.  
  4180.  
  4181.  
  4182.  
  4183.  
  4184.  
  4185.  
  4186.  
  4187.  
  4188. McCoy                                                          [Page 71]
  4189.  
  4190. RFC 1008                                                       June 1987
  4191.  
  4192.  
  4193.      [ISO85c] N3279 Information Processing - Open Systems
  4194.               Interconnection - DAD1, Draft Addendum to IS 8073
  4195.               to Provide a Network Connection Management
  4196.               Service, ISO TC97/SC6 N3279, available from
  4197.               SC6 Secretariat, ANSI, address above.
  4198.  
  4199.      [JAI85]  Jain, Rajendra K., "CUTE: A Timeout  Based  Congestion
  4200.               Control Scheme for Digitial Network Architecture,"
  4201.               Digital Equipment Corporation (available from the
  4202.               author), March 1985.
  4203.  
  4204.      [LIN85]  Linn, R.J., "The Features and Facilities of Estelle,"
  4205.               Proceedings of the IFIP WG 6.1 Fifth International
  4206.               Workshop on Protocol Specification, Testing and
  4207.               Verification, North Holland Publishing, Amsterdam,
  4208.               June 1985.
  4209.  
  4210.      [MIL85a] Mills, Kevin L., Marnie Wheatley, Sharon Heatley,
  4211.               "Predicting Transport Protocol Performance",
  4212.               (in preparation).
  4213.  
  4214.      [MIL85b] Mills, Kevin L., Jeff Gura, C. Michael Chernik,
  4215.               "Performance Measurement of OSI Class 4 Transport
  4216.               Implementations," NBSIR 85-3104, January 1985.
  4217.  
  4218.      [NAK85]  Nakassis, Anastase, "Fletcher's Error Detection
  4219.               Algorithm: How to Implement It Efficiently and
  4220.               How to Avoid the Most Common Pitfalls," NBS,
  4221.               (in preparation).
  4222.  
  4223.      [NBS83]  "Specification of a Transport Protocol for
  4224.               Computer Communications, Volume 3: Class 4
  4225.               Protocol," February 1983 (available from
  4226.               the National Technical Information Service).
  4227.  
  4228.      [NTA84]  Hvinden, Oyvind, "NBS Class 4 Transport Protocol,
  4229.               UNIX 4.2 BSD Implementation and User Interface
  4230.               Description," Norwegian Telecommunications
  4231.               Administration Establishment, Technical Report
  4232.               No. 84-4053, December 1984.
  4233.  
  4234.      [NTI82]  "User-Oriented Performance Measurements on the
  4235.               ARPANET: The Testing of a Proposed Federal
  4236.               Standard," NTIA Report 82-112 (available from
  4237.               NTIA, Boulder CO)
  4238.  
  4239.      [NTI85]  "The OSI Network Layer Addressing Scheme, Its
  4240.               Implications, and Considerations for Implementation",
  4241.               NTIA Report 85-186, (available from NTIA, Boulder CO)
  4242.  
  4243.      [RFC85]  Mills, David, "Internet Delay Experiments," RFC889,
  4244.  
  4245.  
  4246.  
  4247. McCoy                                                          [Page 72]
  4248.  
  4249. RFC 1008                                                       June 1987
  4250.  
  4251.  
  4252.               December 1983 (available from the Network Information
  4253.               Center).
  4254.  
  4255.      [SPI82]  Spirn, Jeffery R., "Network Modeling with Bursty
  4256.               Traffic and Finite Buffer Space," Performance
  4257.               Evaluation Review, vol. 2, no. 1, April 1982.
  4258.  
  4259.      [SPI84]  Spirn, Jeffery R., Jade Chien, William Hawe,
  4260.               "Bursty Traffic Local Area Network Modeling,"
  4261.               IEEE Journal on Selected Areas in Communications,
  4262.               vol. SAC-2, no. 1, January 1984.
  4263.  
  4264.  
  4265.  
  4266.  
  4267.  
  4268.  
  4269.  
  4270.  
  4271.  
  4272.  
  4273.  
  4274.  
  4275.  
  4276.  
  4277.  
  4278.  
  4279.  
  4280.  
  4281.  
  4282.  
  4283.  
  4284.  
  4285.  
  4286.  
  4287.  
  4288.  
  4289.  
  4290.  
  4291.  
  4292.  
  4293.  
  4294.  
  4295.  
  4296.  
  4297.  
  4298.  
  4299.  
  4300.  
  4301.  
  4302.  
  4303.  
  4304.  
  4305.  
  4306. McCoy                                                          [Page 73]
  4307.  
  4308.